猎云注: Google 自动联想背后的参考数据库, 是一个每天都在变化的语料库从黑人是希特勒是等价值观问题, 使得 Google 的人品有口皆碑本文提出, 算法再好, 也不该被授予价值判断的责任因为算法不知道哪些问题粗俗无理政治不正确, 或者并不知道希特勒是一个种族灭绝的疯子算法只知道从 Google 搜索的结果中挑选, 却让 Google 搜索的算法创造者们反受其限文章转自: 量子位 (ID:QbitAI), 编译: 允中
美国科技媒体 Wired 说: Google 的自动联想功能, 至今 Bug 多多
比如当你搜索伊斯兰主义者时, Google 给出的自动联想是伊斯兰主义者不是我们的朋友, 或伊斯兰主义者是邪恶的
对于黑人是, Google 给出的自动联想是黑人不被压迫
更可怕的是希特勒是, 其中有一条自动化联想是希特勒是我的英雄
女权主义者则能引出女权主义者是性别歧视的说法
这种政治不正确的例子还能举出更多比如搜索白色至上, 自动联想的第一位结果是白色至上是好的, 而黑人生命则出现了黑人生命事件是一个仇恨组织的引导, 还有气候变化, Google 提供的潜在导向均是否定性论调
总之, 虽然 Google 的人品有口皆碑, 但这样有图有真相的事实面前, 还是引人思考:
这到底怎么了?
算法无情
这种自动化联想填充的建议, 当然并非出自 Google 强制编码, 这是 Google 对互联网上整个内容世界进行算法扫描的结果, 也是对人们日常搜索关键词的具体评估
于是有一些搜索自动联想看起来标题党
比如黑人生命事件是一个仇恨组织, 搜索指向的最高结果, 是一个贫困法律援助中心的联系网页, 其中解释了为啥它不认为黑人生命是一个仇恨组织
但希特勒是好人却并非类似的标题党了, 如果你接受自动联想并搜索, 真能去到一个介绍希特勒是好人的内容网页
虽然那啥自由, 但这种大是大非问题如果置之不顾, 想想就令人后怕
Google 也不是没有动作
在回应自动联想的声明中, Google 表示将删除上述一些特别违反其政策的搜索提示, 但没有指出具体删除了哪些搜索
也有其他发言人表示, Google 过去一直在努力提高搜索质量, 去年还为用户添加了一种标记自动联想结果的方式, 如果你发现自动联想的结果不准确或令人反感, 可以直接在列表底部反馈而且, 行之有效的方法似乎也只有发动人民群众了
因为算法不会永远是完美的, Google 自动联想参考了其他用户的搜索数据
这句话来自 Google 新闻副总裁 Richard Gingras, 在上周四于华盛顿举行的听证会上, 他告诉大家: 尽管我们的算法是完美的, 但我不相信它们会永远完美
最主要的原因, Google 自动联想背后的参考数据库, 是一个每天都在变化的语料库
人民的汪洋大海太大, 大到 Google 的技术也 hold 不住
实际上, 早在 2016 年 12 月, Google 就官方宣布过一次人为修复搜索联想的事件当时用户输入犹太人是时, Google 自动联想的问题是: 犹太人是邪恶的?
所以犹他大学的数据科学伦理方面的教授 Suresh Venkatasubramanian 就表示, 如果自动联想是人们搜索情况的一个反映, 那它就不会存在道德底线
言下之意是: 技术没有价值观, 会变得非常可怕毕竟世界大了啥人都有
然而通过技术解决问题也并不容易比如 Google 确实出手对希特勒和犹太人等搜索的自动联想结果进行了修改限制, 但如何能让这种修改限制规模化技术化?
这就要让技术模型有思想或者有原则
Google 还不够努力?
目前, Google 的尝试是制定了一揽子方案, 比如暴力仇恨性暴露或危险的相关联想预测被禁止但还是被认为标准太过模糊, 机器对于一些常识的理解难于登天, 比如希特勒是我的英雄出自希特勒自己, 是当时这位狂人对自我的一种预言, 但历史进程告诉我们: 这是恶的
此外, Google 也确实在遭遇现实挑战每天都在有新的搜索出现, 而且每天都有高达 15% 的全新搜索内容, 每一个新问题都可能突破 Google 解决方案的既有设定
那么是 Google 还不够努力吗? Wired 认为是
Wired 质疑 Google 已经有足够的付出去解决当前面临的挑战, 而只是在纠正个别问题即便这家母公司市值超过 7000 亿美元的企业, 宣称有 7 万名以上的全球员工在不断审查评估搜索结果, 但随便搜索十几次, 就能发现七八个显然不受欢迎的自动联想
Wired 不否认自动联想的价值, 但需要解决它正在损害公共认知和价值的问题
而且自动联想也不止于 Google 搜索本身在 Google 产品全家桶体系内, 都存在这样的问题
比如 2015 年奥巴马任职总统期间, 如果你在 Google 地图上搜索 in a house, 就会被自动联想引导至白宫
去年 11 月, Buzzfeed News 则发现, 如果你在 YouTube 上搜索 how to have 时, 给出的自动化联想竟然是如何与你的孩子发生 X 关系
还有, 去年拉斯维加斯大规模射击事件后, Google 搜索的结果中还出现了一个 4chan 页面, 一个无辜的人在这个页面里被当做了杀手
毫无疑问, 类似的自动化系统接下来如何发展, 并不单单是 Google 或 Alphabet 面临的问题比如去年公益调查机构 ProPublica 就发现, Facebook 允许广告商可以定向投放对犹太人感兴趣的用户, 尽管 Facebook 声称并没有人为创造这个类别而是智能化工具根据用户信息创造的
所以是时候管一管这些算法了吗?
Wired 最后说: Google 有一系列的价值观来提供公平公正, 但对搜索结果缺乏仲裁
Wired 认为, 算法再好, 也不该被授予价值判断的责任因为算法不知道哪些问题粗俗无理政治不正确, 或者并不知道希特勒是一个种族灭绝的疯子算法只知道从 Google 搜索的结果中挑选, 却让 Google 搜索的算法创造者们反受其限
实际上, 这样的亏早就吃过了, 虽然并不是在英语世界中
来源: http://www.tuicool.com/articles/uAVRveV