人工智能是什么?人工智能为何重要?我们应该畏惧人工智能吗?为什么突然之间所有人都在谈论人工智能?
你可能会从网上知道人工智能如何为亚马逊和 Google 的虚拟助理提供支持,或者人工智能如何一步步地取代所有的工作(有争议的),但是这些文章极少很好的解释人工智能是什么(或者机器人是否将要接班).本文将对人工智能做出解释,这份简明指南将随着领域的发展和重要的概念出现进行更新和改进.
人工智能是什么?
人工智能是具有学习机制的软件或计算机程序.人工智能使用这种知识在新的情况下做出决定,就像人类一样.构建该软件的研究人员尝试编写可以读取图像,文本,视频或音频的代码,使得人工智能从中学习一些东西. 一旦机器学到了,知识就可以在别的地方使用. 如果一个算法学会识别某人的脸,那么可以在 Facebook 照片中找到它们. 在现代 AI 中,学习通常被称为 "训练"(将在后文进行介绍).
人类自然会学习复杂的想法:我们可以看到像苹果这样的对象,然后在以后识别一个不同的苹果. 机器是非常字面化的 - 电脑没有对 "类似" 的灵活概念.人工智能的目标是使机器减少仅基于文本而形成的概念. 机器很容易判断两张苹果的图像或两个句子是否完全相同,但人工智能旨在从不同的角度或不同的光线识别同一苹果的图片; 它捕捉视觉角度去识别苹果.这被称为 "泛化" 或基于数据的相似性形成想法,而不仅仅是基于 AI 所看到的图像或文本. 更普遍的想法可以应用于 AI 以前没有看到的事情.
卡内基梅隆大学计算机科学教授亚历克斯 · 鲁德尼奇(Alex Rudnicky)说:"人工智能的目标是将复杂的人类行为降低到可以计算的一种形式." 这反过来又使得我们能够建立对人类有用的可以从事复杂活动的系统."
今天距离人工智能还有多远?
人工智能研究人员仍在努力解决这个问题的基础. 我们如何教电脑来识别他们在图像和视频中看到的内容? 之后,识别如何进入理解 - 不仅产生 "苹果" 这个词,而且知道苹果是一种与桔子和梨相关的食物,人类可以吃苹果,可以用苹果做饭,并用它们来制作苹果馅饼,并且联系到约翰尼 · 苹果派的故事,诸如此类. 还有一个理解语言的问题——词根据语境有多重含义,定义总是在演变,每个人的说法都有一点点差别. 电脑如何理解这种不固定的,千变万化的语言构造?
由于介质不同,人工智能的进展速度也不相同.现在,我们看到了在理解图像和视频能力的惊人增长,这是一个业界称之为计算机视觉的领域.但是,这一进步对其他人工智能的理解并没有多大帮助,这是一个被称为自然语言处理的领域.这些领域正在发展有限的智能,这意味着人工智能在处理图像,音频或文本方面具有强大的功能,但却无法从这三者中学习到同样的方法.一个不可知论的学习形式是一般智力,这是我们在人类身上看到的.许多研究人员希望,各个领域的进步将揭示更多关于我们如何让机器学习的共享真理,最终融合成统一的人工智能方法.
人工智能为什么重要?
一旦人工智能学会了如何从图像中识别出一个苹果,或者从音频片段中转录出一个语音片段,它就可以被应用于其他软件中,做本应该需要人类来做的决策.它可以用来识别和标记你的朋友在 Facebook 的照片,你 (一个人) 本应该手工做的事情.它可以从自动驾驶汽车或者你的车的倒车影像里识别出另一辆车或者一个街头标志.它可以用来定位农业生产中应该移除的劣质农产品.这些任务,仅仅基于图像识别,通常是由用户或公司提供软件的人完成的.
如果一个任务节省了用户的时间,它是一个功能,如果它能节省了公司里工作的人的时间甚至完全消除了一份工作,那么它就是一个极大节约了成本.有一些应用程序,比如在销售分析的几分钟内处理数百万个数据点,如果没有机器,是不可能实现的,这意味着以前从未有过的新信息的潜力.这些任务现在可以通过机器在任何时间和任何地点快速,廉价地完成.它是人类曾经完成的任务的复制,对于无限可伸缩的低成本劳动力来说,这是不可否认的经济利益.
卡内基梅隆大学人类计算机交互实验室的教授 Jason Hone 说,虽然人工智能可以复制人类的任务,同时它也有能力开启新的劳动."汽车是马的直接替代品,但在中长期内,它还带来了许多其他用途,比如用于大型运输的半卡车,家具搬运货车,小型货车,带折蓬的汽车."Hong 说 "同样地,人工智能系统在短期内将直接取代常规任务,但在中长期内我们将看到它和汽车一样的戏剧性使用."
就像 Gottlieb Daimler 和 Carl Benz 没有考虑到汽车将如何重新定义城市的建造方式,或者污染或肥胖的影响,我们还没有看到这种新型劳动力的长期影响.
AI 为什么现在这么火爆,而不是 30(或者 60)年前?
关于人工智能应该如何学习的许多想法实际上已经超过了 60 年.上世纪 50 年代,像 Frank Rosenblatt,Bernard Widrow 和 Marcian Hoff 这样的研究人员首先研究了生物学家认为大脑的神经元是如何工作的,以及他们在数学上做的事情.我们的想法是,一个主要的方程可能无法解决所有问题,但是如果我们像人脑那样,使用了很多连接起来的方程会如何呢?最初的例子很简单: 通过数字电话线路分析 1 和 0,然后预测接下来会发生什么.(这项由 Widrow 和 Hoff 在普林斯顿大学完成的研究,仍然被用来减少电话连接的回声).
2006 年,达特茅斯会议五十年后,当事人重聚达特茅斯.左起:摩尔,麦卡锡,明斯基,赛弗里奇,所罗门诺夫
数十年来,计算机科学界的许多人认为,这个想法永远不会解决更复杂的问题,而现如今它是主要科技公司的实现人工智能的基础,从谷歌,亚马逊到 Facebook,再到微软.回顾过去,研究人员现在意识到,计算机还没有复杂到足以模拟我们大脑中的数十亿神经元,而且我们需要大量的数据来训练这些神经网络,正如我们了解的那样.
这两个因素,计算能力和数据,在过去的 10 年里才得以实现.在 2000 年代中期,图形处理器单元 (GPU) 公司 NVIDIA 表示,他们的芯片非常适合运行神经网络,并开始使得 AI 在其硬件上运行变得更加容易.研究人员发现,如果能够使用更快,更复杂的神经网络,就可以提高准确度.
然后在 2009 年,人工智能研究员 Fei-Fei Li 发布了一个名为 ImageNet 的数据库,它包含了超过 300 万个有组织的图片,在里面还添加了标签.她认为,如果这些算法有更多的例子来寻找到模式之间的关系,那么它就能帮助他们理解更复杂的想法.她在 2010 年开始了一场 ImageNet 的竞赛,到 2012 年,研究人员 Geoff Hinton 使用了数百万张图片来训练神经网络,以超过 10% 的准确率的巨大优势战胜了其它的应用.正如 Li 所预测的,数据是关键.Hinton 还把神经网络堆在另一个上面,一个只是找到了形状,而另一个则看了纹理,等等.这些被称为深度神经网络,或深度学习,也就是今天你在新闻中听到的关于人工智能的消息.一旦科技行业看到了结果,人工智能的繁荣就开始了.数十年来,一直致力于深度学习的研究人员成为了科技行业新的摇滚明星.截止 2015 年,谷歌有超过 1000 个项目使用了某种机器学习技术.
我们应该恐惧人工智能吗?
看过终结者这样的电影后,人们很容易就会害怕像天网这样的全能的邪恶的 AI.在人工智能研究领域,天网被称为一般的超级智能,或者人工通用智能,这类软件在各个方面都要比人脑更强大.
由于计算机能够扩展,这意味着我们能够制造出更强,更快的计算机,然后把他们连接起来.恐惧是来自于这些机器人大脑的计算能力可能会增长到一个深不可测的水平,如果他们真的聪明到那个地步,他们就会无法控制,并会绕过任何试图关闭他们的人.这就是埃隆马斯克和史蒂芬霍金这样极其聪明的人所担心的世界末日.正如马斯克所言,虽然它们在某些领域的确拥有智能,但大多数主流人工智能研究人员都对召唤恶魔的说法不以为然.尽管研究人员把学习的基本原理打破了,例如他们改变了如何去理解模式背后的意义,然后把这些新的理解组织成一个功能性的世界观,目前还没有证据表明电脑会有需求,欲望或着意志来存活,Facebook 人工智能研究中心的领导 Yann Lecun 说道.
"当我们受到威胁,我们嫉妒,我们想要获得资源,比起陌生人我们更喜欢我们的近亲,等等这些行为时,我们会变得更暴力,这些都是进化中为了我们的生存而建立起来的.除非我们很明确的把这些基本行为建立到智能机器里,否则它们不会有这些行为." 他在 Quora 上写道.
没有证据表明计算机会认为人类是一个威胁,因为没有给计算机定义这样的威胁.也许人类能够定义它,并告知机器在一些参数中运作,这些参数在功能上就像一个生存的意志,而这个意志并不存在.
谷歌公司的创始成员,百度前人工智能负责人吴恩达说,"我说过,我不担心人工智能变邪恶的原因跟我不担心火星上人口过多的原因是一样的." 但是有一个原因让我们害怕人工智能:人类.
有证据表明,人工智能对从它学习的数据中获取人类偏见很敏感.这些偏见可能是无害的,比如识别图片中的猫比狗更常见,因为它是被更多的猫图片训练出来的.但是,它们也可能会把刻板印象延续下去,比如相比其他性别或种族,AI 更多的把医生和白人男性联系起来.如果一个有这种偏见的人工智能负责招聘医生,那么它可能会对那些非白人男性的员工造成不公平.ProPublica 的一项调查发现,用于判决那些被判有罪的人的算法存在种族偏见,因为其对有色人种的人提出了更严厉的判决.卫生保健数据通常不包括妇女,尤其是孕妇,这样在向这些人提出医疗建议时,会导致系统功能不完整.由于这些机制之前是由人类来做的,而现在我们拥有一台速度更快的超级强大的机器,我们就要确保它们能够在我们的道德规范中公平而一致地做出这些决定.
要判断一个算法是否有偏见并不容易,因为深度学习需要数以百万计的连接计算,通过所有这些小的决策来计算出它们对更大的决策的贡献是非常困难的.因此,即使我们知道人工智能做出了一个糟糕的决定,我们也不知道它是什么原因,也不知道它是怎么做的,所以在它实施之前很难建立起一个机制来捕捉到偏见.
在自动驾驶汽车这样的领域,这个问题尤其不稳定.在自动驾驶汽车上,每一项决定都可能事关生死.早期的研究表明,我们很有希望能够逆转我们所创造的机器的复杂性,但现在几乎不可能知道为什么 Facebook,谷歌或微软的人工智能做出了任何决定.
功能性 AI 术语表:
算法:一套计算机要遵循的指令.一个算法可以是一个简单的单步程序也可以是一个复杂的神经网络,但是通常被用来指一个模型.
人工智能:这是一个统称.广义上说,软件意味着模仿或取代人类智能的各个方面.人工智能软件可以从图像或文本,经验,进化或其他研究人员的发明等数据中学习.
计算机视觉:人工智能研究探索图像和视频识别和理解的领域.这个领域从了解苹果的外观,到苹果的功能用途,以及与之相关的理念.它是被用作自动驾驶汽车,谷歌图像搜索以及 Facebook 上自动贴标签的主要技术.
深度学习:一个神经网络被分层来理解数据中的复杂模式和关系的领域.当一个神经网络的输出成为另一个神经网络的输入时,有效地将它们叠加起来,由此产生的神经网络就是 "深度" 了.
普通智力:有时被称为 "强人工智能",一般智能将能够在不同的任务中学习和应用不同的想法.
生成式对抗网络:这是一个包含两个神经网络的系统,一个是用来生成输出的,另一个是用来检验这个输出的质量是否是想要的输出的神经网络.例如,当试图生成一个苹果的图片时,生成器将生成一个图像,而另一个 (称为鉴别器) 如果不能识别图像中的一个苹果,会使生成器再次尝试生成.
机器学习:机器学习 (ML) 常常与术语人工智能结合在一起,是使用算法从数据中学习的惯例.
模型:模型是一种机器学习算法,它可以建立自己对某一主题的理解,或者它自己的世界模型.
自然语言处理:用于理解语言中思想的意图和关系的软件.
神经网络:通过连接起来的数学方程式的网络,模拟大脑处理信息的方式以建立起来的算法.提供给神经网络的数据被分解成更小的块并根据网络的复杂性分析其基础模式成千上万次.当一个神经网络的输出被输入到另一个神经网络的输入时,这两个神经网络就会链接到一起成为分层,成为一个深层的神经网络.通常,深度神经网络的层会分析越来越高的抽象层的数据,这意味着,在得到最简单和最准确的数据表示之前,它们会将有用数据从没有必要的数据中提取出来.
卷积神经网络:一个主要用来识别和理解图像,视频和音频数据的神经网络,因为它能够处理密集的数据,比如数百万像素的图像或数千个音频文件样本.
递归神经网络:一种用于自然语言处理的神经网络,它可以周期性地,连续地分析数据,这意味着它可以处理像单词或句子这样的数据,同时在句子中保持它们的顺序和上下文.
长短期记忆网络:一种周期性的神经网络的变体,它的是用来根据数据来保留结构化的信息.例如,RNN 可以识别句子中的所有名词和形容词,检查它们是否被正确使用,但 LSTM 可以记住一本书的情节.
强化学习:一种能够从经验中学习的深度学习算法.是可以控制环境的某些方面的算法,比如视频游戏的角色,然后通过反复试验和错误来学习.由于它们是高度可重复的,作为三维世界的模型,并且已经在电脑上玩了,许多强化学习的突破都来自于玩视频游戏的算法.在 DeepMind 的 AlphaGo 中,RL 是机器学习的主要类型之一,它在围棋中击败了世界冠军 Lee Sedol.在现实世界中,在网络安全等领域已经证明了这一点,软件学会了欺骗反病毒软件,使其认为恶意文件是安全的.
超级智能:比人脑还要更强大的人工智能.很难定义它因为我们仍然无法客观地衡量人类的大脑能做什么.
监督式学习:在被训练的过程中,给其提供的数据是已经组织好的,已经被贴好标签的机器学习.如果你正在建立一种监督式的学习算法来识别猫,你就可以在 1000 张猫的图片上训练这个算法.
训练:通过提供数据来让算法学习的过程.
无监督学习:机器学习算法的一种,没有给出任何关于它应该如何对数据进行分类的信息,并且必须找到它们之间的关系的算法.像 Facebook LeCun 这样的人工智能研究人员将无人监督的学习视为人工智能研究的圣杯,因为它与人类自然学习的方式非常相似."在无人监督的学习中,大脑比我们的模型好得多",LeCun 告诉 IEEE 光谱,"这就意味着我们的人工学习系统缺少了一些非常基本的生物学习原理".
来源: http://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/79009483