数字化工具常被称颂为透明, 民主化的 "颠覆者"(disrupter). 两本新书主张, 这种乐观的看法是错误的, 就现在使用的算法来说, 它们对边缘群体的人权构成了重大威胁.
加州大学洛杉矶分校 (University of California, Los Angeles) 信息学研究助理教授萨菲娅 乌莫亚 诺布尔 (Safiya Umoja Noble) 在介绍她研究的主题的时候, 讲述了促使她写作压迫性算法(Algorithms of Oppression)的一件事. 2011 年 9 月, 诺布尔想了解她十岁出头的继女和来家里玩的侄女们会喜欢什么, 为了找灵感, 她在谷歌 (Google) 上搜索了关键词 "黑人女孩". 她原本是想查黑人女孩这个群体可能感兴趣的东西; 相反, 搜索出的结果页面充斥着色情内容. 诺布尔幽默地评论道:"按照搜索结果排名罗列出来的最佳信息, 对我或者我爱的孩子们来说显然不是最佳信息."
诺布尔承认, 任何搜索结果很快都会变成历史: 一年后她又搜索了这个关键词, 发现色情内容得到了控制. 但诺布尔主张, 这种事情应该被视为系统性问题, 而不是一次性的 "小故障". 尽管诺布尔并未以提供种族主义内容或性别歧视内容为由状告谷歌, 但她不肯苟同一种看法, 即谷歌搜索结果反映其用户的民主倾向, 尽管这种倾向可能令人遗憾. 她质疑谷歌对其算法产生的结果存在失职.
就如诺布尔指出的那样, 人们很容易忘记谷歌不是公共信息资源, 而是一家跨国广告公司. 尽管谷歌搜索机制的本质是对互联网用户的 "引用", 但其专有的算法可能偏袒能够带来收入的客户的网页. 同时, 搜索引擎优化行业致力于操纵特定网页, 将它们放入令人艳羡的首页结果中. 因此, 谷歌更像是一个 "思想超市", 而不是被认为对民主至关重要的 "市场". 就如在现实生活中的超市里, 一些物品被摆在显眼的位置不一定是因为它们的品质和性价比, 而是取决于零售商和生产商的商业利益和经济影响力. 如果说只牵涉到烤豆子摆在哪里, 这还是一种可以接受的安排: 但如果, 被摆放的是社会身份呢?
谷歌搜索的无处不在反映出其算法能非常准确和快速地找到我们想要的信息. 但在压迫性算法中, 我们进入的是这样一个信息超市, 走进标着 "黑人女孩" 的这条通道, 立刻进入眼帘的那一排 "货架" 上摆满了色情内容. 在 "教授" 的货架上陈列着一排又一排的白人男性. 黑人青少年男孩与 "犯罪背景调查" 产品摆在一起. 一堆关于 "黑人对白人犯罪" 的白人至上主义 "统计" 掩盖了准确的政府数据源.
随着投入公共信息资源建设的经费持续削减, 诺布尔敦促人们思考, 我们越来越依赖广告公司 "来查找有关民族, 文化, 思想和个人的信息" 会带来什么影响. 在大科技公司的主导地位使越来越多人呼吁 "要引起关注和采取保护措施, 以造福公众", 诺布尔的观点在这些呼声中显得别具一格.
探讨有关谁是受益者的问题也是自动化不平等(Automating Inequality)一书的写作动机. 纽约州立大学奥尔巴尼分校 (University of Albany, SUNY) 的政治科学助理教授弗吉尼娅 尤班克斯 (Virginia Eubanks) 通过三个有关美国公共服务机构使用自动化和算法的案例研究, 揭示 "始自 19 世纪 20 年代, 以说教和惩罚为手段的贫穷管理策略得到 (数字化) 延续和扩张". 每一个政治人士, 公务员和软件工程师都应该阅读自动化不平等这本书. 尽管承认如今的技术较以前的系统有所改进, 这本书揭露出一个骇人的事实 -- 那些隐藏的价值观和双重标准很容易被嵌入自动化系统并因此得到助长.
来源: http://www.ftchinese.com/story/001078483?adchannelID=2100