近日亚马逊称其语音助手 Alexa 能够通过分析用户指令的高低和音量等反应, 识别出 "快乐, 高兴, 愤怒, 悲伤, 烦躁, 恐惧, 厌恶, 厌倦, 压力" 等情绪, 并对相应指令做出回应.
很多人都想拥有一个能陪伴自己的暖心 "大白", 但能像大白一样读懂人类情绪的机器人真的存在吗?
近日亚马逊称其语音助手 Alexa 能够通过分析用户指令的高低和音量等反应, 识别出 "快乐, 高兴, 愤怒, 悲伤, 烦躁, 恐惧, 厌恶, 厌倦, 压力" 等情绪, 并对相应指令做出回应.
其实, 并不只有这一个项目在探究人类情绪.
比如上面提到的亚马逊, 他们早在一年前就已经宣布展开对声音中包含的情绪状态进行分析的研究.
谷歌等公司也没有停止在这一领域的追逐赛. 谷歌在开发检测负面情绪的设备; IBM 通过面部识别摄像头和扫描用户心率和脑电波来结合搜索引擎给出结果; 而 Realeyes 公司则通过网络摄像头或智能手机识别面部情绪.
读懂情绪, 是隐私的小偷还是专属的管家?
目前多家科技公司在人工智能识别情绪方面投入了巨大努力, 像亚马逊在目前阶段就给出了 Alexa 语音助手这一答卷.
相信很快就会有识别情绪更准确的产品面世, 情感人工智能和情绪识别技术也正在日趋成熟并将逐渐应用于各个领域, 这意味着, 我们正在走进一个情绪被监控, 评估和记录的时代. 那么这对我们的生活来说到底是好是坏呢?
大数据时代, 也是一个个人隐私被轻易窃取的时代. 一位专家曾表示:"现在的互联网用户大致可以分为两种, 一种是被黑过的, 另一种是不知道自己已经被黑过的."
打着 "私人订制" 和 "个性化服务" 的旗号, 而实际上更多的是用户隐私信息在被滥用和超额压榨价值. 我们被服务者搜集的个人隐私, 一旦遭受黑客攻击, 就会面临被泄露甚至被滥用的尴尬境地.
黑客对 CloudPets 制造商 Spiral Toys 的联网毛绒玩具的攻击, 使大批用户的密码, 邮件地址以及家长与孩子之间的 220 万个私人语音信息被披露在网上.
这样的例子屡见不鲜, 公众对于自己个人隐私信息被泄露的担忧程度下降并不意味着自己的隐私得到了更好的保护, 恰恰相反, 这只能代表被盗取和泄露的手段更加高超罢了.
很多人以为个人情绪就像自己脑海里的想法一样, 是被盗取不了的. 但其实盗取想法并非不可能, 通过脑机接口技术 (BCI) 就能做到, 像 CBD 街上有很多的 VR 体验店, 经常有人觉得很新鲜进去体验一下.
对于 VR 头显制造商而言, 并不用费很大力气就能利用头显设备秘密收集用户的生理反应数据, 窃取到用户最隐秘的想法. 同样, 情绪识别人工智能的发展, 就像一个 "情绪黑客", 也像一个 "隐私小偷", 包含情绪在内的人类的隐私, 将面临最全面最严峻被窃取风险.
但不可否认的是, 任何事物都有它的两面性. 我们在埋怨头条新闻窃取个人隐私信息的同时, 我们也的确享受着它的个性化推送. 这种能够读懂主人情绪并作出反应的智能机器人, 颇像一个贴心的专属管家.
假设主人回到家中发出指令准备 30 分钟以后去浴室泡澡, 那么这个专属管家通过分析主人的状态是疲倦还是高兴, 在浴室调试好相应的水温, 音乐甚至光线. 在主人夜间做噩梦的时候根据梦话检测到其情绪变化并及时释放安息凝神的熏香......
不过, 这是一块难啃的骨头
智能相对论了解到, 识别分析情绪可以分为三种途径:
一类是像亚马逊这类, 从分析声音入手(这里我将其简称为语音派);
一类是以 IBM 和 Spotify 为代表的通过分析用户的搜索结果和下载内容(内容派);
还有一类是以伦敦 Realeyes 公司为代表的通过建立数据库和拍摄技术识别面部表情(拍摄派).
人的情绪, 最直接的就是通过行为表现出来, 行为又包括表情, 语气, 动作等内容. 先不说内容派的分析过于间接, 可信度较低, 就连直接分析语音和表情的语音派和拍摄派, 智能相对论都觉得太过于片面.
人的情绪之所以难懂, 就是因为它的表现具有选择性. 虽然在行为学中, 微表情能够一定程度上读出人内心的真实想法, 但是在一个人不管是出于礼仪规范还是某些特殊需要的约束而刻意隐瞒自己的情绪的状态下, 单纯分析语音或者表情的人工智能能够做得到准确识别人类复杂的心理活动吗? 更何况人类的情绪也不是一成不变的, 都说 "女人心思百折千回", 人的内心活动可能瞬息万变, 这也增加了人工智能正确识别人类情绪的难度.
正如亚马逊公司的 Prasad 在记者会中说的:"(这项技术)目前还处于早期研究阶段, 在远场音频中检测沮丧和情绪是很困难的, 另外 AI 还需要明确人类是否感到沮丧的基础标准." 面部分析的原理尚且薄弱, 声音分析就更别说了, 与复杂的情绪相比, 声音传递的信息确实算少. 更何况在当今复杂的社会环境中, 这两项技术是否能够通得过变声器和整容等挑战还未可知.
智能相对论认为, 如果还是单纯从一方面入手想要啃下这块难啃的骨头, 恐怕结果不太乐观.
AI 情绪分析到底面临着哪些 "拦路虎"?
接下来我们就来说说为什么不乐观. 这不禁要问人类是如何识别他人的情绪的? 我们知道动物可以通过辨别对方散发的气味来判断情绪, 但人类的情绪判断过程远远不止这么简单. 参考人类的识别过程, AI 至少面临着这几个问题:
1, 单维度不准确, 多维度不擅长.
判断情绪的算法应该从几个维度出发? 面部表情, 声音的波动频率, 搜索内容...... 如果要达到相当高的准确率, 那么从单维度出发肯定是做不到的. 如果维度过高比如连温度和呼吸频率都加上的话, 那么不仅对算法来说是一个巨大的挑战, 而且也是资源的无谓浪费. 选择几个维度和选择哪几个维度是关键, 比如从脑电波, 人体激素分泌或者人体磁场这些方面入手.
2, 定义情绪和识别情绪不是一回事.
如 Prasad 所说, 我们要能够给出各种情绪的定义. 但我们并不一定能给出沮丧的定义, 却能判断一个人是否沮丧. 这是因为我们从出生起就浸淫于社会行为的大环境中. 如果把我们比作 AI, 那就是我们拥有足够庞大的数据库. 所以, 即使有一个相对完善的算法模型, 也需要有异常庞大的数据库来训练这个模型. 如此规模的数据收集, 就算在今天科技成果的加持下, 也并不是一件容易且短时间能完成的事情.
3,AI 在识别情绪这条路上, 如何突破 "情绪壁垒"?
我们人类不是《三体》中的 "三体人", 我们会根据需要隐藏情绪. AI 如果不能实现对 "情绪壁垒" 的突破, 就无法真正完成它的征途. 人行为的复杂程度连最厉害的级计算机都无法解读, 所有涉及到情感的尝试, 都是 AI 研究中的最大难点.
情绪分析技术, 未来可以去哪里发光发热?
最后, 我们讲讲技术落地的可能. 我们分析用户的情绪状态, 听起来非常神奇, 而目前的应用却局限在销售产品和个性化营销上.
亚马逊开发这款智能语音助手也只是为了提供针对性的音频广告和促销. Spotify 也是根据播放列表与情绪的关联向广告公司出售广告位. 从各大公司的不懈努力可以看出, 即使成果尚微, 这项技术也还是有着巨大的潜力和背景. 但智能相对论认为, 这项技术的应用大舞台恐怕不是在营销上.
比如, MIT Media Lab 希望将情感识别技术应用于检测司机驾驶过程中的疲劳状态, 研究观众如何与电视节目互动, 根据情绪状态来诊断像抑郁病这种普通医疗手段难以发现的心理疾病......
比如, 人的情绪识别之前可以先尝试动物情绪识别. 动物的情绪并没有人这么复杂, 如果有一套设备能够帮助主人感知宠物情绪, 那么动物和人的相处会更加和谐. 现在大熊猫等这类珍稀保护动物不是培育不易, 繁衍更不易吗? 如果饲养员能够更好的了解动物情绪, 就能够更好的帮助这些珍惜动物生存和繁衍.
再比如, 这项技术在监护婴儿的成长状态上或许大有作为. 对于懵懂而不懂得表达的婴儿来说, 他们最直接的情绪宣泄方式就是通过声音和动作. 儿童的情绪相对而言比较容易识别也更少矫饰.
当然, 帝国理工学院教授马佳. 潘迪克表示希望该技术有朝一日能够帮助自闭症儿童或者抑郁症患者. 的确, 不管是自闭症还是孤独症这类心理疾病, 越小发现并治疗效果就越好. 如果有识别情绪的人工智能 "伙伴" 进入托管所和家庭, 那么这些因为父母工作忙碌而无法得到足够陪伴的孩子们, 就能很大程度预防这些心理疾病; 对于接受治疗的孩子来说, 也能够以更低的成本得到更优质的个性化治疗.
总结
情绪识别的应用空间不可估量, 只是如果有一天, 人类的情绪能够完全被人工智能识别, 那么一系列的伦理和道德问题也将伴随而来: 谁有权识别他人的情绪? 新一轮的隐私保卫战该如何打响? 情绪识别技术在犯罪领域的应用? 届时,"让秘密烂在肚子里" 是不是也会成为不安全的选择?
来源: http://ai.51cto.com/art/201810/585346.htm