加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

采用人工智能面临的挑战

发布时间:2019-09-13 01:13:29 所属栏目:经验 来源:Kaja Polachowska
导读:副标题#e# 人们需要了解采用人工智能的挑战,例如数据、人员和业务。 人工智能正在进入更多的行业,越来越多的公司已经体验到了实施人工智能的好处。尽管人工智能正在发展并越来越受欢迎,但许多企业仍然无法采用这种新技术改进业务。这是为什么? 企业可能
副标题[/!--empirenews.page--]

人们需要了解采用人工智能的挑战,例如数据、人员和业务。

采用人工智能面临的挑战

人工智能正在进入更多的行业,越来越多的公司已经体验到了实施人工智能的好处。尽管人工智能正在发展并越来越受欢迎,但许多企业仍然无法采用这种新技术改进业务。这是为什么?

企业可能担心人工智能实施的原因有很多。在2019年,O'Reilly公司出版了一本电子书,总结了对企业采用人工智能的调查结果,并列出了阻碍进一步实施人工智能的一些最常见因素。

23%的受访者表示,他们没有进一步采用人工智能的主要原因是他们的公司文化不认可对人工智能的需求。其他原因包括缺乏数据和缺乏技术人员,以及难以确定适当的商业案例等。

企业在实施人工智能时面临哪些挑战?

正如人们所见,一些常见问题主要包括与人员、数据或业务一致性相关的问题。虽然每家公司都不同,并且也会以不同的方式体验人工智能的采用过程,但也应该注意一些障碍。在本文中,将介绍人工智能实现中最常见的一些挑战,并尝试建议如何做好应对这些挑战的准备。

与数据相关的问题可能是大多数企业所面临的问题。众所周知,企业构建的系统只能与它给出的数据一样好。由于数据是人工智能解决方案的关键要素,因此在此过程中可能会出现许多问题。

1.数据质量和数量

如上所述,人工智能系统的质量在很大程度上依赖于输入的数据。人工智能系统需要大量的训练数据集,以类似于人类的方式从可用信息中学习,但为了识别模式,它需要更多的数据。

在任务上做得更好,执行任务的经验越多,这是有道理的。不同的是,人工智能能够以人类想像不到的速度分析数据,因此其学习速度很快。企业给它的数据越好,它将提供更好的结果。

那么企业怎么解决数据问题?首先,需要知道已有的数据,并将其与模型所需的数据进行比较。为此,企业需要知道其将要使用的模型,否则,将无法指定所需的数据。

列出企业拥有的数据的类型和类别问题:数据是结构化的还是非结构化的?是否收集有关客户人口统计数据,购买历史记录,现场互动等数据?当企业知道其已经拥有的东西时,会看到所缺少的东西。

缺少的部分可能是人工智能系统可以轻松访问的一些公开信息,或者企业可能必须从第三方购买数据。某些类型的数据可能仍然难以获得,例如临床数据可以更准确地预测治疗结果。不幸的是,在这一点上,企业必须做好准备,不是所有类型的数据都容易获得。

在这种情况下,综合数据得以拯救。综合数据是基于实际数据或从头开始人工创建的。当没有足够的数据可用于训练模型时,可以使用它。获取数据的另一种方法是使用开放数据作为数据集的补充,或使用谷歌数据集搜索获取数据来训练模型。企业还可以使用RPA机器人来抓取公开可用的数据,例如维基百科网站上发布的信息。

当企业知道自己拥有哪些数据以及需要哪些数据时,将能够验证扩展数据集的哪种方式最适合自己。

2.数据标签

几年前,大多数数据都是结构化的或文本的格式。如今,随着物联网(IoT)的发展,大部分数据都是由图像和视频组成的。这没有什么不对,但问题是许多利用机器学习或深度学习的系统都是以监督的方式进行训练,所以他们需要对数据进行标记。

事实上,人们每天产生大量数据的事实,已经达到了没有足够人员来标记正在创建的所有数据的程度。有些数据库提供标记数据,包括ImageNet,这是一个拥有1400多万张图像的数据库。所有这些都是由ImageNet人工注释的。尽管在某些情况下其他地方可以获得更合适的数据,但许多计算机视觉专家仍然只使用ImageNet,因为他们的图像数据已被标记。

企业可以采用一些数据标注方法。可以在企业内部或外包工作,也可以使用合成标签或数据编程。所有这些方法各有利弊。

3.可解释性

对于许多“黑盒”模型,企业最终得出一个结论,例如预测但没有解释。如果人工智能系统提供的结论与企业已经知道的结果重叠并认为是正确的,那么就不会质疑它。但是如果不认同会发生什么?需要知道如何做出决定。在许多情况下,其决定本身是不够的。医生不能完全依赖系统提供的关于患者健康的建议。

LIME(本地可解释的模型不可知解释)等方法旨在提高模型的透明度。因此,如果人工智能判断患者患有流感,它还会显示导致此决定的数据:打喷嚏和头痛,而没有考虑患者的年龄或体重。

当企业获得决策背后的理由时,更容易评估人们可以信任模型的程度。

4.特定案例学习

人们能够利用从一个领域到另一个领域的经验。这就是所谓的学习转移,人类可以在一个环境中转移学习到另一个类似的环境中。人工智能却难以将其经验从一种情况转移到另一种情况。

一方面,人们知道人工智能是专业的,它意味着执行严格指定的任务。它的目的只是回答一个问题,为什么人们还希望它能回答另一个不同的问题呢?

另一方面,人工智能在一项任务中获得的“经验”对另一项相关任务可能是有价值的。有没有可能利用这种经验而不是从头开始开发新的模型?转移学习是一种使之成为可能的方法——人工智能模型被训练来执行某项任务,然后将该学习应用到类似(但不同)的活动中。这意味着为任务A开发的模型稍后将用作任务B的模型的起点。

5.偏见

偏见是许多人所担心的事情:人工智能系统对女性或有色人种“有偏见”的故事不时成为头条新闻。但这是怎么发生的呢?当然,人工智能不能有恶意。

那么如果人工智能可能具有恶意呢?像这样的假设也意味着人工智能有意识的并且可以做出自己的选择,而实际上人工智能只能根据可用数据做出决策。它没有意见,但它从别人的意见中学习。这就是偏见发生的地方。

偏差可能是由许多因素造成的,首先是收集数据的方式。如果数据是通过杂志上发表的一项调查收集的,人们必须意识到,其答案(数据)只来自阅读上述杂志的人群,这是一个有限的社会群体。在这种情况下,不能说这个数据集代表了整体人群。

探测数据的方式是产生偏见的另一种方式:当一群人使用某种系统时,他们可能拥有最喜欢的功能,而根本不使用(或很少使用)其他功能。在这种情况下,人工智能无法了解未使用的功能。

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读