最近,微博一篇名为“我突然被54万人看了裸照”的维权记录帖大火,女生被曾经的朋友窃取生活照还被造黄谣。
这种行为固然可恶,但好在还能通过蛛丝马迹查出作恶者,还有一种更令人心惊的技术,能让所谓的裸照、色情视频无中生有,它就是deepfakes,国内俗称AI换脸。
什么是deepfakes
deepfakes(深伪技术)一词诞生于 2017 年,这个词其实是结合了“deep learning(深度学习)”和“fake(伪造)”两词,是人工智能的一种形式。
简单来说,就是人工智能通过深度学习来伪造视频、图片、声音等。
原本“换脸”技术仅仅用于影视等行业,但是在2017年,一个名为 deepfakes 的 Reddit 用户打开了潘多拉的魔盒。这名用户创建了一个色情网站,里面的视频把原来色情片演员的脸换成了盖尔·加朵、泰勒·斯威夫特、斯嘉丽·约翰逊等当红明星。
从那时起,换脸色情片一再成为新闻,根据 Deeptrace 的一份报告,2019 年的 deepfakes 视频中色情内容占了总量的 96%。
这项技术引起了很多争端,首当其冲的就是女性的名誉权,有名的女性被制作色情视频供人娱乐,平民女性也有可能发现自己的脸出现在了色情网站上——被怀有报复之心的人换脸。
终于,国外各大APP和网站如 Reddit 、Twitter 、Pornhub 等都陆续宣布删除并禁止露骨的 deepfakes 视频。
技术虽好,也需警惕
这 deepfakes 就是完全罪恶的吗?也不一定。
有些使用该技术的视频是很有趣的,有些甚至可以帮助别人。
比如它可以进行声音克隆,人们因疾病而失去声音时,它能帮助声音重现。还可以应用于艺术与娱乐领域,让已故作者的影像出现在画廊和博物馆,“亲自介绍”ta的作品,或者让去世的名演员“客串”新电影。
技术的产物太逼真了,很容易就让人们相信那些影像是真实的,而这也恰恰是它的危险之处。
试想一下:你与伴侣分手,收场不太愉快,没过几天收到他发的有你面孔的色情视频威胁;你多次拒绝一个追求者,对方恼羞成怒,把你平时的生活照换脸到裸照上……即使你从未拍过裸露图片、视频,你也有可能成为某个片段的“主角”。
是不是很恐怖?
甚至利用换脸技术的骗局也层出不穷:视频聊天伪装成老朋友借钱,以“裸聊”的名义诈骗……
是不是觉得防不胜防?
技术当然可以发展,但不能被鼓励应用于伤害别人的地方。
为了遏制换脸技术应用于侮辱女性、诈骗等违法行为,国内关于换脸技术也有了诸多规则进行限制,比如限制直播时使用换脸特效等等。
如果你能看出某段视频是伪造的并且是具有冒犯侮辱性的,最好第一时间联系平台并将其删除,必要时可以保留证据,报警求助。
如果遇到疑似诈骗的情况,有一个快速辨别是否换脸的小技巧,那就是让对方转个头:
希望大家多留个心眼,别被这种“先进技术”蒙蔽了!🌈
相关推荐
- 苹果将为Siri添加性别中立语音
- “性科技”可能会暂缓心理健康不适
- 印度最大婚恋网为同性做媒,媒体推测同性婚姻或将合法
- 反同黑客出阴招,黑进电信系统,群发短信劝同性恋悔改
- 杏爱机器人or爱情机器人?
- 反同牧师创业,推出“反同版Facebook”
- 维珍银河创始人布兰森戴彩虹胸针完成首次太空试飞
- 英雄联盟新英雄阿克尚疑似代表LGBT+
- 纪念计算机科学之父图灵,新版50英镑钞票开始流通
- 科技公司开发仿生机器人,带有生殖器和同性恋人设