2017 年已经结束了,还有什么比回顾这一整年中 AI 的发展历程更激动人心的吗?
AI 大事件的作者 Denny Britz 梳理了 2017 整年的 AI 大事,人工智能从研究到应用领域的回顾,都在这篇 AI 超大事件里了。
强化学习在很多游戏上达到了超人表现今年 AI 领域最成功的故事可能就是 AlphaGo 了(Nature 论文),AlphaGo 是一个强化学习代理,击败了世界上最好的国际象棋棋手。
AlphaGo 的第一个版本使用来自人类专家的训练数据进行引导,并通过自我对弈和蒙特卡洛树搜索进一步提升。不久之后, AlphaGo Zero (Nature 论文)更进了一步,学习如何从头开始玩国际象棋,不需要任何人工训练数据,使用先前发表在 Thinking Fast and Slow with Deep Learning and Tree Search 中的技术。它轻松击败了 AlphaGo 的第一个版本。
而在今年年底,我们又看到了 AlphaGo Zero 算法的另一个升级,称为 AlphaZero ,它不仅掌握了国际象棋,而且在将棋上也使用了相同的技术。有意思的是,人工智能代理的游戏策略使得很多经验丰富的人类玩家都大受启发,从而激励玩家从 AlphaGo 中学习并相应地调整自己的游戏风格。为了使这个学习过程更容易,DeepMind 还发布了 AlphaGo Teach 工具。
但是 AlphaGo 并不是人工智能取得重大进展的唯一游戏。来自 CMU 的研究人员开发的 Libratus (Science 论文)在一场为期 20 天的无限德州扑克锦标赛中成功击败了顶级人类玩家。 稍早些时候,由查尔斯大学,捷克技术大学和艾伯塔大学的研究人员开发的 DeepStack 系统成为第一个击败专业扑克玩家的系统。 请注意,这两个系统针对的是双人扑克,比在多个玩家中游戏容易。后者很可能会在 2018 年取得进一步的进展。
强化学习的下一个领域是包括多人扑克在内的多人游戏。DeepMind 正在积极研究 " 星际争霸 2 ",并在 2017 年发布了研究环境,而 OpenAI 已经在 1v1 Dota 2 上击败了顶级人类玩家,目标是在不久的将来于 5v5 游戏中全面击败人类玩家。
遗传算法东山再起
对于监督式学习,使用反向传播算法的基于梯度的方法对于研究者来说已经非常熟练了。但同时,在强化学习中,进化策略(ES)似乎正在东山再起。由于数据通常不是 iid(独立且分布相同)的,因此错误信号更加稀疏,而且由于需要进行探索,所以不依赖于梯度的算法可以更好地工作。此外,遗传算法可以线性扩展到数千台机器,从而实现极快的并行训练,不需要昂贵的 GPU
今年早些时候,来自 OpenAI 的研究人员证明,遗传算法可以实现与标准的强化学习算法(如 Deep Q-Learning)相媲美的性能。今年年底,Uber 的一个团队发布了一篇博文和一组五篇研究论文,进一步展示了遗传算法的潜力。下面这个视频展示了使用各种算法玩 Atari 游戏的得分情况,GA 策略得分为 10500,而 DQN,AC3 和 ES 在这个游戏中得分低于 1,000。
WaveNets,CNN 和注意机制
谷歌的 Tacotron 2 文本转语音系统产生了极其精准的音频样本,这项技术基于 WaveNet。这是一种自动回归模型,也被部署在谷歌助理中,并在过去一年中实现了大幅的速度提升。 WaveNet 之前也被应用于机器翻译,从而减少了经常性架构的训练时间。
从机器学习子领域看,花费很长时间进行训练的经常性架构逐渐成为一种趋势。研究人员完全摆脱了复发和卷积,并使用更复杂的注意力机制,达到了在训练成本很低的情况下的最高水平。
深度学习框架的一年
如果我不得不用一句话总结 2017 年,那我会说是 "框架的一年"。Facebook 使用 PyTorch 做了一个大跃进。 由于其动态图形结构与 Chainer 提供的类似,PyTorch 从自然语言处理的研究人员那里得到了更多的青睐,他们经常需要处理在 Tensorflow 等静态图形框架中很难声明的动态和循环结构。
Tensorflow 在 2017 年已经相当成功. Tensorflow 1.0 在 2 月份发布了一个稳定且向后兼容的 API。 目前,Tensorflow 的版本是 1.4.1。 除主框架之外,还发布了多个 Tensorflow 伴随库,包括用于动态计算图的 Tensorflow Fold,用于数据输入管道的 Tensorflow Transform 以及 DeepMind 的更高级别的 Sonnet 库。 Tensorflow 团队还宣布了一个新的热切执行模式,其工作方式类似于 PyTorch 的动态计算图。
除 Google 和 Facebook 之外,还有许多其他公司也加入了机器学习框架的行列:
而且由于框架的数量逐渐泛滥,Facebook 和微软发布了 ONNX 开放格式,以便跨框架共享深度学习模式。 例如,您可以在一个框架中训练您的模型,然后在另一个框架中投入生产。
除了通用的深度学习框架外,我们还看到大量的强化学习框架正在发布中,其中包括:
为了让深度学习更容易部署,我们也看到了一些 web 的框架,比如谷歌的 deeplearn.js 和 MIL webdnn 执行框架。但至少有一个非常流行的框架在 2017 年结束了它的生命,那就是 Theano,开发商决定 Theano 1.0 将成为 Theano 的最后一个版本。
学习资源
随着深度学习和强化学习越来越受欢迎,越来越多的讲座,训练营和活动已经在 2017 年在线录制和发布。以下是我最喜欢的一些:
几个学术会议延续了在网上发布会议的新传统。 如果您想赶上尖端的研究,您可以观看 NIPS 2017,ICLR 2017 或 EMNLP 2017 的一些录像。
研究人员也开始在 arXiv 上发布教程和调查论文。 这是 2017 年中我的最爱:
AI 应用之 "艺术"
2017 年开始获得更多关注的应用是图像,音乐,草图和视频的生成性建模。 NIPS 2017 年会议首次推出了机器学习创意与设计研讨会。
最流行的应用程序之一是谷歌的 QuickDraw,它使用神经网络来识别你的涂鸦。 使用开源的数据集,您甚至可以教机器为您完成您的绘图。
GANs 今年取得了重大进展。 例如,CycleGAN,DiscoGAN 和 StarGAN 等新模型在生成人脸方面取得了令人印象深刻的成果。 GANs 在过去难以生成逼真的高分辨率图像,但 pix2pixHD 的结果表明,研究者们正在解决这些问题。 GANs 会成为人类的新画笔吗?让我们在 2018 年拭目以待。
AI 应用之 "自动驾驶"
自驾车领域的大玩家是 Uber 和 Lyft,Alphabet 的 Waymo 和 Tesla。 由于软件错误,Uber 在旧金山错过了几盏红灯。之后,Uber 分享了内部使用的汽车可视化平台的细节。Uber 的自驾车计划在 12 月份达到了 200 万英里。
与此同时,Waymo 的自驾车在四月份成为了第一批真正的 AI 车手,后来在亚利桑那州的凤凰城完全取消了操作人员。 Waymo 还公布了他们的测试和模拟技术的细节。
那些酷酷的研究项目
2017 年发布了许多有趣的项目,在这里不可能一一列举。 只能对那些脱颖而出的稍作介绍:
更偏向研究的项目:
数据集
用于监督学习的神经网络以数据饥饿而闻名。 所以开源数据集对研究界来说是一个非常重要的贡献。 以下是今年出现的几个数据集:
深度学习的挑战:可重复性和炼金术
在 2017 年,一些研究人员对学术论文结果的可重复性提出了担忧。深度学习模型通常需要大量的超参数,必须对其进行优化才能获得足够好的结果。这种优化通常非常昂贵,昂贵到只有像 Google 和 Facebook 这样的公司才能负担得起。研究人员并不总是发布他们的代码,并且出于各种原因忘记把重要的细节放到完成的论文中,这使得可重复性成为一个很大的问题。在 Reinforcement Learning That Matters 这篇文章中,研究人员表明,使用相同的算法和不同的基础代码使得结果出现了很大的不同和很高的方差:
在 Are GANs Created Equal? A Large-Scale Study 这篇文章中,研究者表明,使用昂贵的超参数搜索进行调整的 GAN 可以击败更为复杂的方法。同样,在 On the State of the Art of Evaluation in Neural Language Models 中,研究人员表明,简单的 LSTM 架构,如果适当规范化和调整,可以胜过更多的近期模型。
在许多研究人员的共同努力下,阿里 · 拉希米(Ali Rahimi)将最近的深度学习方法与炼金术进行了比较,并呼吁进行更严格的实验设计。然而 Yann LeCun 将他的讲话视作对深度学习的侮辱,并在第二天进行了反驳。
中国和加拿大的人工智能发展
随着美国移民政策收紧,越来越多的公司开始在海外开设办事处,加拿大成为主要目的地。 Google 在多伦多开设了一个新的办公室,DeepMind 在加拿大埃德蒙顿开设了一个新办公室,Facebook AI Research 也扩展到了蒙特利尔。
中国是另一个倍受关注的目的地。 由于拥有大量的资金,大量的人才库和政府数据,在人工智能的发展和生产部署方面,它正在与美国竞争。 Google 日前宣布即将在北京开设一个新实验室。
硬件大战:Nvidia, Intel, Google, Tesla
现代深度学习技术要求昂贵的 GPU 来训练最先进的模型。 到目前为止, NVIDIA 一直是最大的赢家。今年,它发布了 Titan V 旗舰 GPU。但是竞争无处不在, Google 的 TPU 现在可以在其云平台上使用,英特尔的 Nervana 推出了一套新的芯片,甚至特斯拉也公开表示它正在开发自己的 AI 硬件。竞争也可能来自中国,专门从事比特币挖掘的硬件制造商希望进入以人工智能为核心的 GPU 领域。
炒作和失败
对于人工智能的炒作在 2017 年达到了新的巅峰,主流媒体的报道与研究实验室或生产系统实际发生的事情几乎从不相符。IBM Watson 成为了过度营销的传奇,但它却从未提供相应的、令人满意的成果。今年,每个人都开始讨厌 Watson,这在它于医疗方面一再失败之后也并不奇怪。
今年获得最多炒作的故事可能是 Facebook 的 " 研究人员关闭发明自己语言的 AI" ,其实这件事情的本质仅仅是研究人员停止了一个结果不太好的标准实验而已。
然而更值得注意的是,不仅仅媒体应当因为炒作被钉在历史的耻辱柱上。研究人员也在论文的标题和摘要中大吹特吹,这些标题和摘要不能反映实际的实验结果,比如 natural language generation paper 和 Machine Learning for markets.
高调招聘和离职
Coursera 的联合创始人 Andrew Ng (他的机器学习 MOOC 可能是最著名的),在今年多次被报道。 Andrew 在三月份离开百度领导的 AI 集团,筹集了 1.5 亿美元的基金,并成立了一个专注于制造业的新公司 landing.ai 。 在其他消息中,Gary Marcus 辞去了 Uber 人工智能实验室主任的职务,Facebook 聘请了 Siri 的自然语言理解部门负责人,几位著名的研究人员离开了 OpenAI,开创了一家新的机器人公司。
学术界的科学家不断流失到业界的趋势也在继续,大学实验室抱怨说, 他们无法与行业巨头提供的薪水竞争。
初创企业投资和收购
就像去年一样,AI 创业的生态系统正在蓬勃发展,并进行了几次高调的收购:
很多创业公司也拿到了巨额风投:
原文发布时间为:2018-01-02
来源: https://yq.aliyun.com/articles/328078