据外媒报道, 3 月 26 日, Google 全球事务高级副总裁 Kent Walker 在 Google 博客中发文宣布, 为了贯彻落实 Google AI 七原则, 完善相关的内部治理结构和流程, 成立 ATEAC 委员会, 用来处理人工智能中的棘手问题.
委员会设置 8 名成员, 有经济学家, 有心理学家, 有美国前副国务卿, 但成立不到一周, 一位专家自愿退出. 在本周, 谷歌员工发起了一项请愿, 要求该公司撤换另一名委员会成员, 因为他反对保障同性恋和变性人同等权利的法律.
为了回应抗议, 谷歌决定完全解散这个名为先进技术外部咨询委员会 (ATEAC) 的团队, 并在声明中称:"很明显, 在当前的环境中, ATEAC 不能按我们所希望的方式运行, 所以我们要解散它, 并回到原计划上来, 我们将继续在 AI 带来的重要问题上进行我们的工作, 并将找到不同的方式来获取外部对这些问题的意见."
虽然谷歌的 AI 道德委员会成立一周就土崩瓦解, 但这并不意味着人工智能道德委员会的失败和无意义. 实际上, 人工智能道德委员会的存在尤为必要. AI 伦理问题究竟何去何从依然值得深思.
AI 与伦理的平衡, 如何规避道德风险?
早到艾萨克. 阿西莫夫 (Isaac Asimov) 提出 "机器人三定律", 再到《西部世界》,《机械姬》,《黑客帝国》,《终结者》等影视剧都对人工智能伦理问题做出了思考, 人工智能可以解放人类劳动力, 但也有可能损害人类的利益, 将大众引向深渊.
人工智能的算法来自于数据, 当数据里带有潜在的价值观倾向, 隐含着偏见等问题, 被系统学习吸收, 谁来维持民众的共识, 保证社会的公平? 当机器自我进化拥有了自主意识, 脱离人的控制, 人类作为其生产创作者, 是否依旧能够稳稳地掌握全局? 当不成熟的人工智能技术陷入异常, 造成失误, 甚至非法入侵而伤害人类, 谁该为此承担责任?
像谷歌自动驾驶汽车造成人员伤亡, 机器人伤人事件, 保险公司利用脸书数据预测事故发生率涉嫌存在偏见等都现实中的失败案例, 也是人工智能存在伦理和道德风险的例证.
面对人工智能引发的伦理问题, 科技巨头们纷纷成立伦理委员会应对挑战. 2016 年, 亚马逊, 微软, 谷歌, IBM 和 非死 book 联合成立了一家非营利性的人工智能合作组织(Partnership on AI), 而苹果于 2017 年 1 月加入该组织.
在科技巨头们的共识里, 与其靠外界强加约束 AI 发展, 不如先成立伦理委员会自主监督. AI 道德委员会是一种监督保障, 更是风险评估标准. 它能够帮助人工智能公司做出道德决策, 使社会受益.
就像麻省理工学院情感计算研究组主任罗萨琳德. 皮卡德教授所言,"机器越自由, 就越需要道德准则." 而学者们也给出了让人工智能规避风险的新思考.
《道德机器: 如何让机器人明辨是非》中美国认知科学哲学家科林. 艾伦和技术伦理专家温德尔. 瓦拉赫强调了两个维度 -- 针对道德相关事实的自主性维度和敏感性维度, 给出了一个关于日趋复杂的 AMAs(人工道德智能体)轨迹的理解框架, 以 "评估它们面对的选项的伦理可接受性". 他们认为 "自上而下" 和 "自下而上" 相混合的模式是机器道德发展模式的最佳选择. 即将从数据当中学习经验的自下向上和用确定的规则进行预编程自上向下结合起来.
美国机器智能研究院奠基人尤德科夫斯基提出了 "友好人工智能" 的概念, 认为 "友善" 从设计伊始就应当被注入机器的智能系统中.
2017 年 12 月 12 日, 电气电子工程师学会 (IEEE) 发布了《人工智能设计的伦理准则》(第 2 版), 提出合乎伦理地设计, 开发和应用人工智能技术应该遵循以下一般原则: 人权 -- 确保它们不侵犯国际公认的人权; 福祉 -- 在它们的设计和使用中优先考虑人类福祉的指标; 问责 -- 确保它们的设计者和操作者负责任且可问责; 透明 -- 确保它们以透明的方式运行.
各国的学者, 专家不断提出关于人工智能的新伦理原则, 但以人为本的理念始不曾改变. 欧盟在近日也提交了他们对于人工智能伦理的答卷.
人工智能时代的道德重建: 可信赖的 AI
4 月 9 日, 欧盟发布了 AI 伦理指导方针, 作为公司和政府机构未来开发 AI 时应遵循 7 大原则, 呼吁 "值得信赖的人工智能"."可信赖 AI" 是对人工智能时代的道德重建, 为 AI 的发展指明了一条合乎伦理的方向.
欧盟 AI 道德准则草案指出, 可信赖的 AI 有两个组成要素: 一, 应尊重基本权利, 适用法规, 核心原则和价值观, 以确保 "道德目的"(ethical purpose), 二, 兼具技术鲁棒性 (robust) 和可靠性, 因为即使有良好的意图, 缺乏技术掌握也会造成无意的伤害.
欧盟提出可信赖 AI 的道德准则草案以及框架
七大关键原则如下:
人类作用和监督: 人工智能不应该践踏人类的自主性. 人们不应该被 AI 系统操纵或胁迫, 而且, 人类应该能够干预或监督软件做出的每一个决定.
技术的稳健性和安全性: 人工智能应该是安全的, 准确的. 它不应该易于受到外部攻击 (例如对抗性实例) 的影响, 而且, 应该是相当可靠的.
隐私和数据管理: 人工智能系统收集的个人数据应该是安全的, 私有的. 它不应该让任何人接触, 也不应该轻易被盗.
透明性: 用于创建人工智能系统的数据和算法应该是可访问的, 软件所做的决定应 "由人类理解和跟踪". 换句话说, 操作员应该能够解释 AI 系统所做的决定.
多样性, 非歧视和公平性: 人工智能提供的服务应面向所有人, 无论年龄, 性别, 种族或其他特征. 同样地, 系统不应该在这些方面存在偏见.
环境和社会福祉: 人工智能系统应该是可持续的 (即它们应该对生态负责) 并 "促进积极的社会变革".
问责制: 人工智能系统应该是可审计的, 并被纳入企业可举报范畴, 以便受到现有规则的保护. 应事先告知和报告系统可能产生的负面影响.
有数据显示, 美国人工智能企业数量 2039 家位列全球第一, 中国 (不含港澳台地区) 有 1040 家, 占全球人工智能企业数的一半以上,《2019 年全球 AI 人才报告》则展示了全球 36524 位顶尖 AI 人才, 一半以上在中美. 中国与美国在 AI 领域的人才和企业上占尽了优势, 可谓你追我赶, 难分高低, 欧盟从伦理角度切入, 率先对人工智能的发展伦理做出规范, 或许不失为一大良策.
本文由用户 五嘎子 自行上传分享, 仅供网友学习交流. 所有权归原作者, 若您的权利被侵害, 请联系管理员.
来源: http://www.open-open.com/news/view/5106871081881265951