从左到右依次是: 埃森哲 Responsible AI 全球计划负责人 Rumman Chowdhury,Cloudera 机器学习负责人 Hilary Mason,Facebook AI 研究院创始人 Yann LeCun, 谷歌大脑联合创始人吴恩达.
人工智能是孤注一掷的选择, 它要么拯救世界, 要么摧毁世界.
近日, VentureBeat 与一些专家进行了对话, 包括谷歌大脑联合创始人吴恩达, Cloudera 机器学习负责人 & Fast Forward 实验室创始人 Hilary Mason,Facebook AI 研究院负责人 Yann LeCun 和埃森哲 Responsible AI 全球计划负责人 Rumman Chowdhury. 他们讲述了自己心中的 2018 年重要里程碑, 以及对 2019 年的展望.
其中一些专家说道, 他们很欣慰关于 AI 终结者说法越来越少, 更多的人开始理解 AI 能做与不能做的事. 但是专家们还强调, 该领域的计算机和数据科学家仍然需要在推动人工智能发展的过程中, 继续采取负责任的伦理观.
Rumman Chowdhury 博士
Chowdhury 博士是埃森哲应用智能服务部门的董事总经理, 也是 Responsible AI 的全球领导者. 2017 年, 她被 BBC 列入「全球最有影响力的 100 位女性」名单.
Chowdhury 表示, 她很高兴看到 2018 年公众对人工智能的能力和局限性的理解有所提高, 并发现人们对人工智能威胁的讨论也更加均衡 -- 不再局限于电影《终结者》中机器将统治人类世界的恐惧.「随之而来的是, 越来越多的人开始关注隐私和安全问题, 以及人工智能在塑造我们以及后代方面所扮演的角色.」
然而, Chowdhury 认为, 公众对于 AI 的这些认知还不是最重要的. 更重要的是, 在 2019 年, 她希望看到更多的人利用教育资源来理解 AI 系统, 并能够利用自己的智慧质疑 AI 所做的决定.
AI 生态系统中的科技公司和人们开始考虑其工作的伦理影响, 这让她感到惊喜. 但她希望 AI 社区更进一步, 能够「从道德提醒到实际行动.」
「至于伦理和 AI 领域 -- 除了电车难题, 我希望大家能够深入研究 AI 将带来的难题 -- 那些还没有明确答案的问题. 如何在人工智能与物联网监控之间取得『正确』的平衡? 这种监控必须安全, 但不应该强化现有种族歧视的惩罚性监控状态. 我们应该如何调整先进技术的收益再分配, 从而不会进一步加大贫富差距? 应该将孩子暴露在什么程度的 AI 环境中才会让他们成为『AI 土著』而不被操控或同质化? 我们如何用 AI 扩展教育并将其自动化, 但仍让孩子的创造力和独立思考能力得到充分发展?」她问道.
2019 年, Chowdhury 预计全球将有更多的政府对技术进行审查和监管.
「全球科技巨头所拥有的 AI 及其力量引发了很多关于如何监管产业和技术的问题. 2019 年, 我们要开始想办法解决这些问题 -- 当一种技术是多用途工具且结果受特定环境影响时, 你如何监管? 如何建立监管条例并确保它不会抑制创新或偏袒大公司 (可以承担合规成本) 而非小公司? 我们要监管到什么地步? 国际, 国家还是地区?」
她还希望看到人工智能在地缘政治事务中继续发挥其作用.
「AI 不只是科技, 它还是经济, 社会的塑造者. 我们在这项技术中反思, 扩展和实施我们的价值. 我们需要加深对技术及其影响的理解.」要做到这一点, 我们对 AI 行业的理解不能再局限于常见观念.
「我希望监管者, 技术专家和研究人员意识到, AI 竞赛不仅仅是算力和技术敏锐度, 就像冷战不仅仅是核力量一样. 我们应该以更公平, 公正, 平等的方式去重建这个世界, 尽管这样的机会很稀有. 逝者如斯夫, 不舍昼夜. 不要浪费时间.」
从消费者的角度来看, 她认为 2019 年将会有更多的家庭使用人工智能. 很多人会更加习惯使用如 Google Home 和 Amazon Echo 这样的智能语音助手以及其它智能设备. 因此, 她也很期待本月将于拉斯维加斯举办的国际消费者电子展 (Consumer Electronics Show,CES) 上是否会有什么有趣的东西出现. 通过这个展会, 人工智能可能会进一步融入人们的日常生活.
「我想我们可能都在等一位机器人管家的出现.」她说.
吴恩达
吴恩达是斯坦福大学计算机科学系教授, 谷歌大脑联合创始人, Landing AI 创始人(该公司旨在帮助企业在业务流程中融入 AI). 此外, 他还是很多流行的在线机器学习课程的讲师, 他还创办了 deeplearning.ai, 并写了一本书《Deep Learning Yearning》.2017 年, 他从百度离职, 后创办了人工智能创业投资机构 AI Fund, 他也是自动驾驶汽车公司 Drive.ai 的董事会成员.
吴恩达认为 2019 年有望出现进展或改变的地方是: AI 将应用于技术或软件公司以外. 他认为, AI 最大的待开发潜力在软件行业之外, 并引用了麦肯锡报告: 到 2030 年, 它将会创造大约 13 万亿美元的 GDP 增长.
「我认为 2019 年在软件业之外的 AI 应用方面会发生很多故事. 在行业中, 我们已经帮助谷歌, 百度, Facebook, 微软等企业做了很多工作, 而 Square,Airbnb,Pinterest 这样的公司也开始利用 AI. 我认为下一波创造价值的浪潮将出现在制造业公司, 农业设备公司或医疗企业, 这些企业可能会利用 AI 来开发多项解决方案帮助其发展业务.
和 Chowdhury 一样, 吴恩达也对 2018 年人们对 AI 能力的理解感到惊讶.
「我尝试审慎地列举一些我认为对实际应用非常重要的领域. 我认为 AI 的实际应用存在很多障碍, 而在这些问题的有些方面有很大进展.」
对于 2019 年, 吴恩达希望看到 AI/ML 研究中两个特定领域的进展. 一个是 AI 能在数据量少的情况下获得较高的准确率, 即「few shot learning」.
「我认为深度学习发展的第一波浪潮是拥有海量数据的大公司训练非常大的神经网络. 如果你想要构建语音识别系统, 在 10 万小时的数据上进行训练. 想要训练机器翻译系统的话, 就在大量平行语料库的句对上进行训练, 从而创造出大量突破性的结果. 现在, 我看到在小数据集上出现越来越多的成果, 即使你只有 1000 张图像, 你也可以尝试做出点什么.」
另一个是 计算机视觉 领域的进展, 即「generalized visibility」. 一个计算机视觉系统可能在使用斯坦福大学的高端 X 光机拍摄图像时效果很好. 很多该领域的先进企业和研究人员已经创造出超过人类放射科医生的系统, 但它们并不是很灵活.
「但是如果你将训练好的模型应用到低端 X 光机或不同医院拍摄的 X 光片上(图像比较模糊, 或者角度有偏差), 那么人类放射科医生的表现会比现在的学习算法泛化性能好得多. 因此我认为有趣的研究是尝试改善学习算法在新场景中的泛化性.」
Yann LeCun
Yann LeCun 是纽约大学教授, Facebook 首席 AI 科学家, Facebook AI 研究院 (FAIR) 创始人.
LeCun 认为 FAIR 执行的开源策略帮助推动其他大型技术公司的开源之路, 他认为开源可以促进 AI 领域的发展.
「开源促进整个领域更快地发展, 因为更多的人可以就研究进行沟通交流, 这会产生非常大的影响. 今天大家所看到的 AI 领域发展速度主要是因为更多人更加迅捷, 高效地互相交流, 同时做了更多的开放性研究.」
关于伦理, LeCun 很高兴地看到大家能够考虑研究的伦理影响以及带有偏见的决策的风险性.
「人们应该注意伦理问题, 这在现在已经成为共识. 而两三年前情况完全不同.」
LeCun 称, 他认为 AI 领域的伦理和偏见不是需要立即采取行动的大问题, 但是人们应该为此做好准备.
「我认为...... 有一些亟待解决的关乎生死的大问题, 但是伦理和偏见问题终有一天会到来, 我们需要...... 理解这些问题, 并在它们发生之前防患于未然.」
和吴恩达一样, LeCun 想看到更多灵活, 鲁棒的 AI 系统, 它们不需要特定质量的输入数据或固定条件也能获得准确的输出.
LeCun 表示, 研究者已经可以很好地利用深度学习管理感知, 但缺乏对完整 AI 系统整体架构的理解.
他认为, 教会机器通过观察世界来学习需要自监督学习或基于模型的强化学习.
「不同的人对此的称呼不同, 但本质上人类婴儿和动物通过观察和分辨大量关于世界的背景信息来学习世界的运作原理, 我们不知道如何让机器学会这么做, 而这是一项重要挑战. AI 和机器真正取得进步的一个重要标志是具备常识, 以及虚拟助手可以更流畅自然地谈论更多话题, 参与更多讨论.」
对于帮助 Facebook 内部运营的应用, LeCun 称自监督学习的巨大进步以及仅靠少量数据也能返回准确结果的 AI 系统将非常重要.
「在解决整个问题的过程中, 我们希望能够找到一些方式来减少任意任务所必需的数据量(如机器翻译或图像识别任务等), 我们在这个方向已经有所进展. 我们已经通过弱监督或自监督学习对 Facebook 所用的机器翻译和图像识别系统带来了好的影响. 所以这些并不是长期的, 它们在短期内就可以带来效果.」
LeCun 希望未来能够看到 AI 在建立因果关系方面有所进步. 这一能力不只是通过观察习得, 而需要对事物有实际的理解. 例如, 如果有人打伞, 那就有可能下雨了.
「这非常重要, 因为如果你想让机器通过观察学得世界模型, 那么它必须能够了解它对改变世界状态的影响以及有些事情不能做. 如果你在一个房间里, 面前有一张桌子, 桌上有一瓶水, 那么你知道你推一下水瓶, 它就会移动, 你不会想去移动桌子, 因为桌子又大又重, 这样的事情都与因果关系有关.」
Hilary Mason
2017 年 Cloudera 收购 Fast Forward 实验室之后, Hilary Mason 成为 Cloudera 的机器学习负责人. 虽然已经被并入 Cloudera, 但 Fast Forward Labs 还在继续运营, 为用户提供应用机器学习报告和建议, 帮助他们看到未来半年到两年的发展方向.
2018 年令 Mason 感到惊喜的人工智能进展与多任务学习有关, 利用这种技术可以训练单个神经网络在推理时应用多个标签, 如在一幅图像中看到的多个对象.
Fast Forward 实验室为用户提供的建议也包含 AI 系统的伦理影响. Mason 越发意识到创建 AI 伦理框架的必要性.
「自从五年前 Fast Forward 创立以来, 我们的每一份报告都包含伦理内容, 但直到 2018 年, 人们才真正开始重视这个问题. 我认为, 2019 年我们将开始看到结果, 以及针对对此熟视无睹的公司或个人的问责机制.」Mason 说道.「有一点我没说清楚, 就是我希望数据科学和 AI 的实践应该按某种方式演进, 即科研人员和商界领袖都能在利用 AI 创造产品时将伦理, 偏见以及这些产品的发展考虑在内, 这在今天还不是惯例.」
2019 年, 更多 AI 系统将成为商业运营的一部分, Mason 希望产品经理及主管可以为 AI 的前沿发展做出更多贡献, 因为他们的职位提供了最大的便利.
「显然, 对整个产品了如指掌而且懂商业的人知道什么样的产品有价值, 他们处在可以决定投资方向的最佳职位. 如果让我预测, 我认为那些使用电子表格一类的东西进行简单建模的人会变得非常低能, 他们很快也会在发现自己产品中的 AI 机会方面变得非常低能.」
AI 民主化, 或者说将 AI 扩展到企业数据科学团队以外的部门, 是一些企业所强调的, 包括 Kubeflow Pipelines 和 AI Hub 等谷歌云 AI 产品, 以及 CI&T 公司为确保人工智能系统在公司内部得到实际利用所提出的建议.
Mason 还表示, 越来越多的公司将需要构建管理多个 AI 系统的结构.
与之前描述运维人员所面临的挑战类似, Mason 说道, 可以使用手动部署的自定义脚本来管理单个系统, cron 作业可以管理几十个系统. 但当你在一个具有安全, 管理和风险要求的企业中管理数十或数百个系统时, 你需要专业而强大的工具.
企业正从招揽有能力或才华的人才转向系统地追求机器学习和 AI 机会.
由于 Cloudera 最近推出了基于容器的机器学习平台, 所以对 Mason 来说, 强调部署 AI 所需的容器是有意义的. 她认为, 这一趋势将在未来几年持续下去, 因此企业可以在本地 AI 和云端 AI 部署之间做出选择.
最后, Mason 认为 AI 的商业化将会持续下去, 而且将涉及整个行业的惯例, 而不是单个公司.
「我想我们将会看到 AI 专业实践的继续发展. 现在, 如果你在一家公司做数据科学家或机器学习工程师, 然后你跳槽去另一家公司, 你的工作将会完全不同: 不同的工具, 不同的预期, 不同的报告结构. 但我想我们还是会看到一致性.」她说.
参考链接: https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/
来源: http://www.tuicool.com/articles/aamIJru