2019 年 6 月 27 日, The Verge 报道网上又出现一个奇葩的新 AI 工具, 叫 DeepNude.
该应用是 Twitter 上一名程序猿开发, 基于加州大学伯克利分校研究人员发布的一个开源算法 pix2pix, 并使用 10000 张女性裸体照片做了训练.
该 App 的使用方法很简单, 打开软件→转化→生成照片.
从那个网上给出的生成结果来看, 效果确实可以以假乱真.
不过, 这样一款 App 很快就遭到抵制, 很多网友对 DeepNude 发起批评, 创建者 Alberto 一开始辩称他只是一个技术爱好者, 还会继续改进算法......
不过这样的解释并不能被广大网友接受, 最终在 6 月 28 日凌晨, DeepNude 在推特发布最新声明, 宣布下线 DeepNude, 给出的理由是: 流量过高! 可能会被滥用. 该团队还警告称不要在网上分享这款应用, 否则会违反相关服务条款.
技术原理
DeepNude 相当于之前换脸 DeepFake 的进化版本. 主要是基于 2017 年, 加州伯克利大学提出的一种叫做 pix2pix 的开源算法.
Pix2pix 使用生成对抗网络 (GAN), 利用大量的图像数据集, 来生成较为逼真的图像. 该算法在自动驾驶等场景中均有使用.
具体来说, Pix2pix 就是通过神经网络学习一些图像的特征, 然后再将其扩展到其他的图像或者视频上.
DeepNude 则是用了超过 10,000 张女性裸照, 来进行训练, 最终实现 "脱衣" 的效果. 实际上就是在新的图片上, 生成了女性裸体图像, 是虚假的.
该软件的制作者表示:" 该神经网络是多重的, 因为针对一张图片需要完成多个不同的任务.
比如找到图像中的衣服, 并掩盖衣服. 推测具体的身体部位, 并渲染图像...... 他表示因为任务比较多, 所以处理的速度会比较慢一点, 但是希望未来能有所改善."
DeepNude 目前只能做女性的照片, 因为这样的照片更容易收集, 他还想做个男性的.
广泛的争议
此技术在网络上一经报道, 立刻引发热议. 大部分网友的第一反应, 就是这项技术的应用, 实在太过于恶俗!
也有很多人对技术产生了怀疑, 难道 AI 技术就是被用来做这些东西的?
似乎自从 DeepFakes 被制作出来, 这个 AI 世界的潘多拉魔盒就被打开了. 我们每个人都有可能成为色情报复的受害者.
另外就是技术对女性的歧视, 从小视频换脸, 到现在的脱衣, 这些恶俗的应用全部针对的是女性, 男性怎么不成为裸照, 小视频的主角呢?
我们一直都在谈技术向善, 不过事实证明, 在人性面前, 对于 AI 这样一把利器我们并不能控制它的走向, 如今有换脸, 脱衣, 未来又还会出现什么更恐怖的事情呢?
希望有关部门能够出台相关政策, 不要让技术成为刺伤我们自己的利刃.
来源: https://www.qcloud.com/developer/article/1458154