雷锋网 (公众号: 雷锋网) AI 科技评论按: 近日, 外媒 Future of Life 对人工智能界知名研究者 Percy Liang 进行了采访, 介绍了他对机器学习的一些看法以及研究目标雷锋网 AI 科技评论全文翻译如下
2017 年底, 美国众议院通过了自动驾驶法案, 为自动驾驶汽车的监管建起了初步框架实际上, 在过去的 20 年间, 自动驾驶汽车就已经在公共道路上进行着各种测试, 而随着这项法案的通过, 以及自动驾驶技术安全性的持续提高, 自动驾驶汽车未来也将在我们的日常生活中占据更多的地位其他医疗法律安全保护等领域的各种各样的无人化技术也会慢慢普及开来
为了人类未来可以和自动化的机器们和谐共处, 学术研究者企业开发者以及用户都需要对这些依赖人工智能的技术有足够的信心不只是自动驾驶汽车这样明显的案例需要人们的信心, 安全保护设施以及手机里的虚拟个人助理, 都使用了人工智能, 都需要人们的信心
机器学习的可预测性
Percy Liang 是斯坦福大学计算机科学系的一名助理教授, 他介绍道, 人类的日常互动总需要一些可预测性, 不管是对于其他的人类, 还是对于汽车之类的自动化系统创造这种可预测性的方法之一就是通过机器学习
机器学习领域中, 人们基于以往收集的数据创建人工智能算法开发者并不需要为 AI 明确地编写代码告诉它应该怎么做应该如何思考, 而是由系统自己从数据中观察学习数据模式, 然后根据数据做出符合数据模式的行动整个过程和试错学习有点像
对于机器学习系统来说, 人们在研究和开发测试中经常考虑的一个关键问题是, 为什么系统做出了这个预测? 对研究和开发人员们来说, 这被称为机器学习的可解释性对于这为什么是个重要的研究课题, Percy Liang 举了个例子说明: 假设你正在过马路, 一辆车向着你开着过来对于一般的人类司机, 你心里大概能猜到他会怎么做但是如果开这辆车的是 AI, 人类要如何知道它会怎么做呢?
系统执行任务得到了好的结果固然重要, 但是也许更重要的是能够用简单好理解的话语解释清楚它为什么那样做了即便系统并不是很准确, 它也需要能够被解释被预测为了能够安全地大规模部署 AI, 这些自动化系统必须是基于广为理解的实际的经得起测试的基本假设和原理才行
目前开发 AI 的理论指导都是让 AI 能够符合训练数据中可观测的输出然而在 Percy Liang 看来, 这可能会导致自动驾驶系统能在验证测试中发挥出良好表现, 但是并不理解在人类想要的输出背后的人类价值判断
进行许多的测试当然很重要根据 Percy Liang 介绍, 这种种模拟测试方法都是很好的 debug 技巧, 我们可以借助它们更轻松地进行控制变量测试, 而且也可以帮助我们更快地迭代系统
不过, 要真正地知道某种技术是否有效, 必须在真实环境中测试, 没有什么讨巧的方法, Percy Liang 说, 对语言视觉机器人技术来说都是这样一辆自动驾驶汽车很有可能可以在所有测试环境中都表现良好, 但是我们没有什么办法可以准确预测它在无法预知的自然灾害面前会做出什么
可解释的机器学习系统
许多领域中, 能取得最好表现的系统都是基于深度神经网络的, 比如识别图像和生成语音中深度神经网络都已经称为了默认的方法, 而这些方法当然也都是很复杂的同时它们也被称为黑盒系统, 因为就算解释系统的行为有那么一些可性能, 实际解释起来也非常难
Percy Liang 和他的团队也在研究如何解释这些模型, 他们在尝试研究某个具体的训练场景是如何对模型的预测产生影响的
从这个视角观察模型已经变得越来越重要, 因为 AI 在做的任务也越来越复杂, 比如对于 AI 医疗给出的诊断结果, 如何理解如何解释是真的生死攸关如果训练数据中有不符合的, 或者对抗性生成的数据, 这就会影响到模型 (损害模型), 后果就是接下来针对新的输入做出的预测可能是错误的我们正在研究的影响函数(influence functions) 可以让我们准确地追踪训练数据中的单个点是如何对某个给定的新输入的预测产生影响的 Percy Liang 说
简单来说, 通过理解一个模型是如何做出它自己的那些决定的, Percy Liang 和他的团队希望可以改进模型运作的方式找到新的科学技术, 并且给最终用户提供一些解释, 让他们明白会对他们造成影响的行为是如何做出的
Percy Liang 的研究的另一个目的是确保 AI 能够理解自己的限制, 而且能够和人类沟通自己的限制传统上, 测试 AI 系统的重要指标之一是平均准确率, 但 Percy Liang 认为对于 AI 的安全问题来说, 这并不是一个多么好的讨论方式毕竟, 对于一个可靠性是 80% 的系统, 人类到底应该怎么做呢?
Percy Liang 其实也没打算追寻一个任何时候都能给出 100% 正确率的答案的系统相比之下, 他更希望的是, 当系统对自己的答案不确定的时候, 它能够明确表示出来如果用户问系统: 我需要吃多少止疼药? 相比给出一个可能造成危险的不准确的预测, 系统直接回答我不知道可能会更好一点
Percy Liang 和团队针对这个问题提出的方法是尝试沿着模型的学习算法追踪模型的预测, 一直反向追踪到模型参数产生的源头他们希望这种方法从训练数据的视角审视模型可以成为开发理解诊断机器学习的标准方法的一部分他解释道, 这种方法可以联系到许多种不同的应用中, 医学计算机科学自然语言理解系统, 以及各种各样的商业数据分析应用
我觉得, Percy Liang 总结说, 大家对于模拟测试起到的作用有一些混淆, 有的人会完全回避模拟测试, 而有的人却很喜欢在模拟测试中做完一切也许我们需要改变整个研究文化, 两种做法其实需要共存
正如采访中透露出的, Percy Liang 和他的团队希望给新一代的机器学习算法设置一个新的框架, 让它们可以更可靠更优雅地运行, 当然也要带来更少的风险
via futureoflife.org , 雷锋网 AI 科技评论编译
来源: http://www.tuicool.com/articles/yuIVbm3