10AI Failures in 2017
SYNCED
译者:夜风轻扬
译者注:2017 年无疑是 AI 技术大放异彩之年,但是在这些令人瞩目新技术的风光后面,还有哪些不为人所知的失败呢?请见下文。
今年,人工智能(AI)程序 AlphaGo 和 Libratus 分别战胜了人类围棋和扑克界的最优秀选手。尽管这些里程碑式的成就,显示了近年来人工智能的巨大进步,但是依然有很多人对这项新兴技术的成熟性存有疑问–尤其是今年人工智能界发生的许多糗事。
新技术在出现之初,经常会犯一些人类不会犯的错误,这里就列举一些人工智能界 2017 年出现的比较引人瞩目的乌龙事件。
利用人脸识别技术来解锁 iPhone X,被视为目前最安全的 AI 解锁方法,苹果公司宣称该方法出现错误的几率是百万分之一。越南一家名叫 BKAV 的公司,使用一个利用 3D 打印生成的价值 150 美元的塑料面具,再通过化妆术就攻克了这项技术。BKAV 首先扫描被测试人员的面部,然后利用 3D 打印机产生面部模型,再在该模型上粘上纸剪的眼睛和嘴巴以及一个硅胶捏的鼻子。这个事件在业界激起轩然大波,提高对于消费设备隐私,以及 AI 技术安全的重视。
广受欢迎的亚马逊 Echo 是功能强大的智能音响。但是万事没有绝对。一个德国人不在家的时候,他的 Echo 莫名其妙的打开了,开始在三更半夜大声播放音乐,并且惊扰了四邻。不堪其扰的邻居报了警,警察只能破门而入关闭了音响。
今年七月,有件事备受关注,两个 Facebook 聊天机器人因以旁人看不懂的语言进行交流而被关闭。随后有关超智能语言的流言四起,Facebook 不得不出来解释说这些神秘字符不过是语法编码的疏忽造成的。
今年 11 月的拉斯维加斯,一辆自动驾驶大巴在一片喧闹声中开始了她的首秀–魔术师 Penn & Teller 也在排队等候乘车的名人中。然而仅仅两个小时后,大巴就和一脸货车相撞。尽管在技术上,大巴对这次交通事故没有责任 - 但是乘客还是抱怨大巴不够智能,不能在卡车慢速接近的时候及时避开。
一名 CNN 员工在使用 Google Allo 时发现,收到带头巾人的表情符号后,会自动回复一把手枪的符合。Google 尴尬地解释说这个问题已经修复,并且发表声明进行道歉。
汇丰银行语音身份鉴别应用是采用 AI 技术的安全系统,可以帮组用户通过语音命令来访问各自的账户信息。尽管该银行声称该应用和指纹身份鉴别系统一样安全可靠。一名 BBC 记者的孪生兄弟,通过模仿记者的声音,经过七次尝试,最终进入了记者的账户。汇丰银行随后立即修改这个错误,把失败尝试的次数设置为三。
MIT 的一个研究小组,通过对一张步枪照片进行简单调整,就骗过了 Google 的云视觉 API,让其误认为直升机。这种方法,又称为 "不利样本",通过对图像进行人眼难以察觉的修改,来诱导计算机进行错误分类。在过去,只有攻击者知道目标计算机内部机理的情况下,不利样本才会有效。而 MIT 小组在不了解系统信息的情况,略施小计就引发的误分类。
研究者发现通过采用涂抹或者粘贴对 "停止" 标志进行仔细修改,可以让自动驾驶汽车对这些标志进行误判。把停止标志里的词改为 "love" 或者 "hate",可以欺骗自动驾驶汽车的机器学习系统,让其误以为是 "限速 45" 标志,并且屡试不爽。
机器学习研究者 Janelle Shan 训练一个神经网络来产生新的绘画颜色,并给每个颜色起个名字。颜色看起来赏心悦目,但是它们的名字确实千奇百怪。即使经过很少的训练,该模型依然将天蓝色标记为 "灰色阴",将暗绿色标记为 "灰褐色"。
亚马逊虚拟助手 Alexa 可以帮组在线购物。但是有时候是不是过于热情了?在 1 月,圣迭戈新闻频道 CW6 报道称,一个 6 岁的小女孩只是告诉 Alexa 她想要个玩具屋,随后就 "被订购" 了 一个,价值 170 美元!这还不够,当电视里的主持人重复小女孩的话,说 "我喜欢小女孩说'Alexa 给我定一个玩具屋'",一些观众家的 Alexa" 闻声而动 ",忙不迭地下单给户主订购玩具屋!
来源: http://blog.csdn.net/dev_csdn/article/details/78902011