"人工智能" 这个词, 被扎克伯格在 10 小时内说了超过 30 次.
打击假新闻, 仇恨言论, 歧视性广告和恐怖宣传...... 小扎坚持认为, 人工智能将解决 Facebook 最棘手的内容审查问题.
最后, 在议员们强烈的攻势之下, 小扎终于给出了一个模糊的时间: 5 到 10 年, AI 可以解决内容审查问题.
但 Facebook 面临的最棘手问题并非是内容审核, 而是潜藏在剑桥数据事件背后的隐私问题.
如果说, 李彦宏的那句 "中国更开放, 对隐私没那么敏感" 掀起了网友的集体围攻, 那么扎克伯格这几天接受议员们的集中轰炸, 则是对世界范围内用户隐私问题的一场公开教育.
AI 能拯救 Facebook 吗?
在昨天举行的参议院听证会上, 共和党参议员约翰. 图恩 (John Thune) 问扎克伯格, Facebook 目前如何应对在社交媒体平台上的仇恨言论, 以及涉及的各种挑战.
扎克伯格说, Facebook 过去没有能力删除这类内容, 但最近人工智能的进展终于使这成为可能. 小扎说, AI 过滤器能够识别支持 ISIS 和基地组织的内容, 还开发了自动的工具, 这些工具可以判断用户是否有自杀 / 残倾向.
小扎认为, Facebook 在将人工智能部署到警方打击恐怖主义宣传方面 "非常成功"."今天, 我们坐在这里, 99% 的 ISIS 和基地组织在 Facebook 上的内容, 都被我们删除了. 我们的 AI 系统能够在任何人看到 (ISIS 和基地组织言论) 之前就标记出来."
不过, 当参议员问起 AI 多久能够完全打击有害言论, 小扎就没有那么十足的底气了.
在多轮质询下, 小扎说:"我很乐观地认为, 在 5 到 10 年的时间里, 我们将会有人工智能工具, 可以识别不同类型的内容在语言上的细微差别, 但今天我们还做不到."
另外, 一些反极端主义等非营利组织也认为, Facebook 夸大了自己的成就, 未能打击知名的伊斯兰极端分子.
尽管技术不成熟, 但是 Facebook 已经认为, 自身的人工智能在检测问题内容方面很成功. Facebook 的 AI 帮助它删除了数千个虚假账户, 并 "发现可疑行为", 其中包括去年在阿拉巴马州举行的特别参议员竞选, 当时人工智能帮助发现了来自马其顿的政治垃圾邮件, 避免了选举受到外国的影响.
Facebook 以低调但非常重要的方式使用人工智能, 比如识别人们的面部照片, 并利用算法来决定广告或新闻推送的位置, 以最大化用户的点击和关注.
但就是这种精准的用户信息和推送, 被剑桥数据利用之后, 造成了小扎今天的危机.
长久避而不谈的隐私安全, 第一次走进公众视野
议员们根本不会关心 5-10 年后的 Facebook 是否会 100% 审核内容, 他们只关心小扎你自己在内的数据是怎么被泄露的, 人们还有没有隐私可言?
几位参议员认为隐私是 Facebook 的要害, 他们认为 Facebook 收集到的大量数据无法被信任, 并且其中很大一部分是在没有用户充分理解的情况下收集的. 三位参议员提出了隐私立法, 要求在收集和分享用户的数据前, 必须经过用户允许.
但扎克伯格提出异议, 没有对任何具体的立法提案表示支持.
新泽西州民主党众议员弗兰克. 帕隆 (Frank Pallone Jr.) 向扎克伯格施压, 要求他在 Facebook 是否同意或拒绝改变 Facebook 的默认设置, 以尽量减少用户数据的收集和使用.
扎克伯格提议成立一个数字消费者保护机构, 让 Facebook 和同行在某种程度上能参与政府的行动.
此外, 而关于隐私问题, 扎克伯格遇到的不仅是美国老乡们的询问, 也受到了来自欧盟的压力.
欧盟即将实施通用数据保护条例(General Data Protection Regulation), 在欧洲监管机构和隐私维权人士看来, Facebook 目前的一些做法似乎违反了新法律. 因为欧洲法律要求隐私设计和违约责任. 欧洲专家表示, 这将要求 Facebook 关闭大量的广告和隐私设置, 这些设置目前被设置为共享, 并且请求用户允许打开.
目前, 小扎还没有详细的应对计划.
隐私专家: 互联网用户第一次更愿意承担不便, 换取隐私
"剑桥分析数据门" 是让扎克伯格登上国会山的首要原因.
根据新智元之前的报道 http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652016271&idx=1&sn=bdb331f6719215425599db4c522a8078&chksm=f121fa7ec6567368109d11a7bbacd6b2893b4d7259b852b019a38c40c472eef1ea173bfd8331&scene=21#wechat_redirect ,Facebook 数据门的最终问题是出在了终端研究者, 一位名叫 Aleksandr Kogan 的剑桥学者 -- 不是剑桥分析公司, 将其通过 API 收集到的公开数据分享出售, 而这些数据本来应该是保密的. Facebook 的责任是在开放 API 之后跟踪数据流向, 确保这些数据不会遭到滥用. 但这本身很难做到, 所以 Facebook 在 2014 年后干脆取消了一系列允许第三方获取公开数据的 API.
此外, 引发争议的还有 Facebook 的数据共享政策 http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652016665&idx=1&sn=1bb91ef6e31b1dd056ea49d1c65e6566&chksm=f121e4e8c6566dfe3068771da177dcd7cfe51e5482817249ecb5eaf9f35092cef224a249a2ff&scene=21#wechat_redirect .Facebook 允许第三方应用开发者通过这些应用收集开发者想要的所有的用户数据. 后续调查显示, Facebook 的一个搜索功能让人通过仅搜索某个用户的电话号码或电子邮件地址, 就能查找到这个 Facebook 用户的公开个人资料, 包括性别和出生日期等信息. 被这一功能影响的人数量高达 8700 万, 连扎克伯格本人也在其中.
实际上, Facebook 用户在不知情或者没有授权的情况下, 数据被拿去与朋友共享, 这件事是当时许多隐私权倡导者都注意到了的严重问题. 但是, 多年以来一直没有得到重视.
美国公民自由联盟 (ACLU) 的立法顾问 Neema Singh Guliani 表示, ACLU 多年来一直让 Facebook 监督第三方如何使用数据, 但当时很少有人关注. Guliani 在接受纽约时报采访时表示:"我们正在讨论一个十年前就该讨论的议题."
在此期间, 有很多类似的隐私问题爆出. 例如, 谷歌在构建 Goolge 地图时曾经采集私人 WiFi 信息, 但这件事只引发了短暂的讨论, 并没有对之后硅谷的公司大量采集数据产生任何持续性的影响.
但 Facebook 数据门, 让很多隐私专家看到了希望. 事件已经持续发酵了将近一个月, 而且连续占据各大新闻媒体的头条. 全美乃至全世界的人都在关注事件的走向, 它第一次让一个长久以来都存在但人们一直避而不谈, 或者说不作为的问题摆上台面, 进入公众的视野.
一直以来, 消费者对安全和隐私不怎么感兴趣的原因之一, 在于危害很模糊, 难以定义. 但在 Facebook 数据门中, 这种危害是可以识别的, 很多人第一次意识到,"我的信息被政府高层拿去操纵我的行为".
许多隐私专家第一次认为, 互联网用户会更愿意承担一些不便, 换取更多隐私.
这一次或许有切实的改观出现. 对于许多开发人员来说, 现在是推动测试更多隐私解决方案的合适时机, 包括更先进的广告拦截器, 分散互联网的点对点浏览器, 新的加密技术, 以及让用户汇集数据并自行销售的数据联盟. 其他人则希望将科技巨头更多地视为信息受托人, 因为信息受托人有法律责任保护用户数据.
数字时代新的商业类型: 掌握大量用户数据的公司是 "信息受托人"
耶鲁大学法学院教授 Jack Balkin 撰文称, 我们应该将掌握大量用户数据的公司, 比如 Facebook, 谷歌, 看做 "信息受托人"(information fiduciary)--Facebook 拥有如此多的用户的数据, 由于其运营不透明, 人们很容易受 Facebook 如何使用这些数据的影响. 这意味着人们必须相信 Facebook 不会滥用自己交付给 Facebook 的数据.
因此, Facebook 持有这些数据的权利, 取决于其不滥用这种信任的责任. 而这正是承担受托责任的本质, 弱势群体必须信任为他们提供服务的人(也即受托人), 而受托人则不应当滥用这种信任.
这一点很好理解, 律师和医生等专业人士持有其客户的敏感个人信息, 以便为这些客户提供服务. 他们的客户必须信任他们, 这样专业人员才能执行这些服务. 同样, Facebook 也提供了一种服务 -- 社交网络 -- 许多人认为这种服务有价值. 在提供这项服务的过程中, 人们提供了大量有关他们自己的数据, 使他们 (以及他们的朋友和亲人) 更容易受到 Facebook 的影响. 正如扎克伯格所说:
"我们有责任保护你的数据, 如果我们不能, 我们不配为你服务. 我一直在努力了解到底发生了什么, 以及如何确保这不再发生."
扎克伯格表示, 自 2007 年起, Facebook 就修改条例, 保护终端用户的数据不受滥用. Jack Balkin 指出这一点十分重要, 扎克伯格向全世界表示, Facebook 的目标不仅仅是实现其隐私政策(很少有人能看懂这种晦涩的说明), 而且有义务保证信誉和诚信, 超越隐私政策的具体措词. 这正是信息受托人的责任.
其次, 扎克伯格在描述剑桥分析事件时说:"这违反了 Kogan,Cambridge Analytica 和 Facebook 之间的一种信任. 这暴露了 Facebook 和所有与我们分享数据并希望我们保护数据的人之间的信任缺口. 我们需要解决这个问题."
换句话说, 扎克伯格认为, Facebook 有责任保护其最终用户免受滥用, 不仅仅是从自己的行为中, 而且还要从与其共享数据的人的行为中受到保护.
Balkin 认为, Facebook 有责任确保只要允许其他人或企业查看或使用 Facebook 的最终用户数据, 这些人和企业就必须承担 Facebook 本身必须承担的责任.
"这是算法学会法律和道德准则发展的重要时刻. 数字时代最强大的公司之一的创始人说:(1)我们对最终用户有责任; (2)我们破坏了这种信任; (3)我们因为允许第三方操纵和滥用最终用户对我们的信任破坏了这种信任." 这表明数字时代正在出现一种新的商业类型, 我称之为信息受托人."Balkin 写道.
正如我们以前所说, Facebook 数据门的核心, 不仅仅是 Facebook 对用户信息的处理不当, 或是揪出责任在谁, 而是这家每个月有 20 亿人在使用的公司是否值得信赖. 我们是否能够安心地把地球上三分之一的人的信息交给这个平台去处理, 并让这个信息交换平台继续成为我们生活的核心组成部分.
这一点, 对中国的亿万互联网用户, 以及中国的互联网和社交网络巨头, 也通用适用.
"我想中国人可以更加开放, 对隐私问题没有那么敏感." 尽管李彦宏这句饱受争议的话后来被证明是被断章取义, 但这足以证明用户对中国的互联网公司在保护数据及隐私安全方面的努力并不满意.
最后说一句, 4 月 2 日, 国务院办公厅印发科学数据管理办法, 进一步加强和规范科学数据管理, 保障科学数据安全.
而在企业和商业领域, 适应时代发展新情况的数据管理办法, 还需要实践和时间.
来源: https://yq.aliyun.com/articles/581493