深度学习(DL)和人工智能(AI)已经不再是科幻小说中遥不可及的目标,目前已成为了互联网和大数据等领域的前沿研究内容.
由于云计算提供强的计算能力,提出的先进算法以及充裕的资金,这创造了五年前难以想象的新技术.此外,层出不穷的丰富数据也使得深度学习成为了现实.
相关内容分成四个部分,主要深入探索深度学习,数据库的选择以及相关实际商业应用问题等.
在第 I 部分中,将介绍人工智能,机器学习和深度学习三者之间的历史;
在第 II 部分中,将讨论人工智能,机器学习和深度学习三者之间的区别;
在第 III 部分中,将深入研究深度学习以及在为新项目选择数据库时需要评估的关键事项;
在第 V 部分中,将讨论深度学习为何使用 MongoDB,并提供相关使用实例;
由于本文内容是第 I 部分内容,主要介绍人工智能的历史.如果读者想快速将四部分的内容全部看完,可以下载本文的附件.
人工智能的历史
我们目前生活在人工智能开始崭露头角的时代,人工智能不仅创造了扰乱工业和变革工作场所的可能性,而且还可以解决一些社会上的挑战.比如自动驾驶可以挽救数万人的生命,增加老年人和残疾人的流动性,精准医学可以开展个体化治疗以延长生命,智能建筑有助于减少碳排放并节约能源等,这些只是人工智能承诺的一些潜在的好处,并且大多已经取得相关突破性的进展.
到 2018 年,Gartner 公司估计机器将占全球所有业务内容的 20%,并预计 60 亿个联网设备将产生大量的数据.人工智能对理解这一切显得至关重要,AI 不再局限于科幻电影中,人工智能和机器学习正在被现实世界中的相关业务采用.
自从艾伦 · 图灵(Alan Turing)于 1950 年写了篇论文《计算机器与智能》以来,人工智能一直是人们的一个梦想.在这篇论文中,图灵提出了一个根本性的问题--"机器能思考吗?",并考虑计算机是否能像人类那样进行思考.人工智能领域的研究真正诞生于 1956 年的夏天,一组聚集在达特茅斯学院(Dartmouth College)的研究人员发起了一系列的研究项目,他们的目标是让计算机做出像人类一样行为."人工智能" 这一词也是第一次在这所学院被创造出来,该会议的概念形成了一个合法的跨学科交流的研究领域.
在接下来的十年中,随着新技术的发展受到当代技术的限制,人工智能的发展经历了繁荣和萧条周期.在 1968 年,科幻电影《2001:太空漫游》中的智能电脑--HAL9000 说了一句著名的话,"对不起,戴夫,恐怕我不能那么做",这帮助 AI 在主流意识中留下了不可磨灭的印象.在 20 世纪 70 年代末,电影《星球大战》中智能机器人帮助拯救银河的场景进一步巩固了 AI 在主流文化中的地位.
但直到 20 世纪 90 年代末,人工智能才开始从科幻传说转变为现实世界中的实际应用.1997 年初,由 IBM 的深蓝国际象棋程序击败了当时的世界冠军 Garry Kasparov,人工智能在上世界 90 年代迎来了一个新的时代,AI 的研究进展也开始加速.研究人员变得开始关注人工智能的相关子问题,并利用它来解决现实世界中的应用任务,比如图像和语音识别等.研究人员没有试图构造由专家知识决定的逻辑规则,而是开始研究如何通过算法学习逻辑规则本身,这一趋势有助于将研究重点转移到人工神经网络(ANNs)中.在 20 世纪 40 年代,人工神经网络被发明成 "松散地" 模仿人脑的学习方式.当反向传播梯度下降算法得到改进时,人工神经网络的研究于 1986 年开始变得流行起来,反向传播算法减少了人工神经网络训练时需要大量手工调参问题,因此反向传播算法(BP)也是一种有效的减少人工智能训练时间的方法.
即使在算法方面取得新的进展,但神经网络仍然受到技术上的限制,这些限制也影响了 ANNs 在过去几十年的应用情况.直到 2000 年中期,人工智能才重新掀起一次科技浪潮.在 2006 年,多伦多大学的 Geoffrey Hinton 提出对人工神经网络进行修改,并将其研究成果称为 "深度学习(Deep Neural Network)".Hinton 对人工神经网络添加多个隐藏层并对每层进行数学优化,逐层学习使得模型训练变得更快.在 2012 年,斯坦福大学的 Andrew Ng 进一步推动了深度学习的发展,他建造了一个简陋的利用图形处理单元(GPU)实现深度神经网络的模型,Andrew Ng 发现集群 GPU 仿真训练深度学习模型比通用的 CPU 训练快得多,对于同样的任务而言,GPU 可能只需要一天的时间,而 CPU 需要几周的时间才能产生相同的结果,这是由于 GPU 是大规模并行架构,而且能同时处理多个任务.
从本质上讲,将软件算法与高性能的硬件相结合已经酝酿了几十年,这也将迎来 AI 正在经历的快速发展.
人工智能现在为什么高速发展?
目前有四个主要因素推动了人工智能的发展:
1. 更丰富的数据.人工智能需要大量的数据来学习,社交的数字化为其进步提供了可利用的原材料.诸如物联网(传感器等),社交和移动计算,科学和学术界,医疗保健以及许多新的应用程序等来源的大数据可以用来训练人工智能模型.不出意料,目前在人工智能领域投资较多的公司,比如亚马逊,苹果,百度,谷歌,微软等,同时也是数据较多的公司.
2. 更便宜的计算成本.在过去,即使人工智能相关算法得到改进,硬件仍然是一个制约因素.由于硬件和新的计算模型取得新的突破,尤其是 GPU,加速了人工智能的发展过程.GPU 由于其自身的并行处理能力及高效的执行矩阵乘法的方式使得其在人工智能社区得到普及应用,这也缔造了英伟达这一优秀公司的行业地位. 最近,英特尔在 Xeon 和 Xeon Phi 处理器中增加了新的深度学习指令,这允许其能更好地进行并行和高效的矩阵运算.随着人工智能技术的应用,硬件厂商现在需要专门针对人工智能进行开发,设计和制造相关产品,这些进步将导致更好的硬件设计,性能,功耗以及配置文件.
3. 更复杂的算法.更高效的性能和更便宜的计算花费使得科研人员能够开发和训练更高级的算法,这是因为他们不再受限于过去硬件约束的限制.因此,深度学习现在正以惊人的精确度解决特定的问题(例如,语音识别,图像分类,手写识别,欺诈检测等),更先进的算法继续推动人工智能技术的发展.
4. 更广泛的投资.在过去的几十年中,人工智能的研究和发展主要局限于大学和研究院等机构.资金缺乏以及人工智能问题的困难性导致其发展甚微.如今,人工智能投资不再局限于大学实验室,而是在许多领域都在进行发展--政府,风险资本支持的初创公司,互联网巨头和各行业的大型企业等.
作者信息
Mat Keep,产品营销总监,目前就职于 MongoDB 团队.
本文由阿里云云栖社区组织翻译.
来源: http://www.jianshu.com/p/2f20db108d37