AI 换脸或受《民法典》人格权编严监管,我们该如何防范技术作恶?
2020年5月28日下午,十三届全国人大三次会议表决通过了中华人民共和国民法典,民法典将在2021年1月1日正式施行。6月1日晚,两会已授权民法典正式文本发布。
这是中国1949年后首部以“法典”命名的法律,财新评价它:“象征生命、自由、财产的私权立法迎来高光时刻。”值得注意的是,民法典人格权编中明确规定了不得用技术手段伪造等方式侵害他人肖像权,矛头直接指向 AI 换脸、变声。
“民法典正式施行后,即便用户利用 AI 技术换脸只是单纯的娱乐,没有营利目的,也有可能被认定为是侵犯肖像权。”广东合邦律师事务所律师肖锦阳对开源中国表示,《民法典》第1019条明确规定了肖像权的消极权能,这对 AI 换脸等滥用信息技术手段侵犯肖像权的行为进行禁止和预防具有积极意义。
我国新颁布的民法典中第1019条就规定:
任何组合或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。
未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或公开肖像权人的肖像。
而在此之前,我国的肖像权保护主要参照《民法通则》第一百条规定:
公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。
AI 换脸在技术层面只是做深度学习训练的一个切入点,往往兼具娱乐性。但在应用和商业方面,很多换脸软件游走在灰色地带,甚至引发法律风险。现在,人们通常用 deepfake(可直译为深度造假)来指代那些会造成不良影响的 AI 换脸影像成品和软件。
随着 deepfake 的泛滥,多个国家已出台政策法规监管。此外,为防止技术作恶,人们正尝试用技术制衡技术,也有人在探讨如何为从事技术开发的人员增加一门“道德伦理课”,以追求行业自律……
deepfake “游戏”泛滥
在5月28日民法典表决刚刚通过时,“AI 换脸被纳入监管”的“提示”就立刻在 IT 业传播开来。
关注度在一定程度上反映了其热度。日前,GitHub 上一个集成各类 deepfake 功能的仓库DeepFaceLab 登上热榜。DeepFaceLab 的介绍中赫然写着:DeepFaceLab 可以用来换脸,和改变政客们的言论。截至目前,DeepFaceLab 已有14.7K Star。
制造 deepfake 影像的门槛正在变低。深圳大学计算机与软件学院副教授储颖告诉开源中国,无论是将人脸互换、还是直接生成虚假图片视频,技术上都属于深度学习范畴,差别无非就是数据集不同、模型不同、算法不同和参数不同。“人工智能的技术应用门槛正在变得越来越低”。
近两年,由于生成对抗网络技术 GAN 也被用在 deepfake 制作中,生成的虚假图片视频数量飞速上涨。
此外,人工智能在2012年开始火热也是由于图像分类识别研究的兴起,慢慢从图像识别、再到图像生成。而 AI 合成图像视频又是可以看得见、摸得着的应用,因此很多开发者都在尝试此类应用,这也让“造假”不可避免地增多。加上虚假信息常和女星、政客、高热度人物捆绑,deepfake 应用和成品往往能飞快走红。
2019年8月30日,陌陌上线一款智能换脸产品 ZAO。用户只需要在软件中上传一张自己清晰、正面的照片,便能将一些经典影视作品中的人物换成自己,同时保留影视人物特征和自己的部分面部特征,生成短视频和 GIF 动图。视频和动图处理过程仅需1-10秒,之后用户可以将其分享至微信、微博、QQ 等平台。
推出后的第三天,2019年9月1日,ZAO 就登顶 Apple App Store 免费娱乐应用程序榜单。
(微博用户使用 ZAO AI 换脸鞠婧祎影视作品人物形象视频)
但由于 ZAO 的用户隐私条款存在争议,很快被微信封杀,陌陌也被网信办约谈整改,热度骤降。不过,ZAO 是用户将自己的脸套到其他人脸上,最终成果综合了两个人物的面部特征,此类换脸在肖像权和虚假信息传播方面引发的争议较小。
而通常我们在谈论 deepfake 有害时,更多指将别人(尤指公众人物)的脸换到自己、第三人、或虚拟人物的脸上,只保留该人物的面部特征,但套上了原本不属于他的面部表情,合成以假乱真的视频图片,导致虚假信息甚至新闻扩散。
deepfake 一词出现在2017年12月。当时 Reddit 上一个 ID 为 deepfake 的用户,上传了一个合成视频,内容是将好莱坞明星盖尔·加朵的脸换到情色电影中的女主角身上。该软件迅速流行起来,但由于很多人不满,2018年初,Reddit 开始封禁 deepfake。2019年2月,deepfake 在 GitHub 上的仓库遭限制访问。
但 deepfake 依然备受关注,更多的 deepfake 软件和视频在出现。现在最常见的是使用 AI 换脸,合成色情或政治人物言论视频,这可以带来黑产交易,甚至影响部分国家和地区的政治局势。
去年有人调查, AI 换脸一度形成一条完整的色情黑色产业链。闲鱼上曾有商家售卖女星的换脸合集视频,并且提供从成品情色视频,到软件制作各环节的交易和服务。当然,曝光之后平台方做了整改,现在在闲鱼上检索“换脸”,已经没有相关商品。外媒也曾报道,有技术人员利用 GAN,开发出 deepnude 等应用程序,可快速使图像中的人物脱光衣服,以恐吓和骚扰他人。
另外,一些广为流传的 deepfake 视频,主角是知名政客。如下图中的奥巴马,均是 AI 合成。2018年,加蓬出现一条涉及总统 Ali Bongo 新年致辞的虚假合成视频,甚至引起兵变。过去政客间惯用的以性丑闻打击对手的招数也借 deepfake 重燃。如2019年,马来西亚出现一条涉及内阁大臣的性丑闻录像带,后被指控为政治阴谋。
“从长远来看,deepfake 对民主构成了严重威胁,但女性很可能首先遭受苦难”,这是2019年,荷兰一家专为监测 deepfake 而生的网络安全公司 deeptrace 发表的调查结果总结。根据 Deeptrace 的数据,deepfake 视频从2018年12月的8,000个增长到2019年年中的14,678个。几乎所有内容都是色情内容,并且这些假视频截至调查时已被浏览1.34亿次。
一方面,deepfake 影像制作越来越简单。另一方面,虚假影像对人身财产安全、人格尊严、社会安定的影响愈发严重。于是,人们也在加紧寻找减少技术伤害的方法。
用技术、道德规范和法律减少伤害
deepfake 虚假信息造成的负面影响,正被技术人员尝试同样用 AI 来解决。“开发者通过技术制衡技术”,肖锦阳认为,对于防止 AI 换脸作恶,目前最有效的方法是开发相应的检测技术。
2019年8月,美国国防部高级研究计划局 DARPA 发布一项旨在能够自动检测、归因和表征伪造媒体资产的技术——语义取证 SemaFor。SemaFor 的目标是开发一套语义分析算法,增加伪造媒体内容生产者操控、传播虚假信息的难度。
之后,2019年9月,Facebook、微软又联合包括麻省理工、牛津大学在内的几所高校,发起一项 deepfake 的检测挑战赛。谷歌、亚马逊等企业也参与其中,提供数据和资助。
Facebook 给参赛者开放访问100000多个视频的独特数据集权限,并提供1000万美元的研究资助和奖励。谷歌母公司 Aiphabet 旗下的 Jigsaw 和谷歌一起,提供了3000个付费演员的新视频数据集,以帮助改善侦查技术。亚马逊提供100万美元的云信用额度支持该挑战。
(Google 和 Jigsaw 提供的由28个演员参演的3,000个被操纵视频的数据集)
此外,Jigsaw 还曾发布一种新事实检查工具 Assembler,使用 AI 来帮助记者检查图像是否伪造或被篡改。Jigsaw 还建立了一个 StyleGAN 检测 deepfake 成品,使用机器学习发现真实人物和被操纵人物图像之间的差异。
AI 检测到虚假影像资料之后,就可以提醒用户。Facebook、Twitter 选择了标记 deepfake 资料和删除有严重危害的信息。
今年初,外媒报道,Facebook 在美国2020总统大选之前,正加紧审查包含 AI 换脸的假消息。Facebook 全球政策管理副总裁 Monika Bickert 表示,不一定要删除被标记为“假”的视频,但会向用户发出警告,告知它们是假的。“如果我们仅删除事实检查人员标记为虚假的所有操纵视频,这些视频仍将在互联网或社交媒体生态系统的其他位置提供。通过将其保留并标记为虚假,我们将为人们提供重要信息。”此外对于可能造成重大社会危害的虚假信息将做删除处理。
Twitter 删帖也是有前提的。如内容可能对某团体或个人人身安全构成威胁,或可能造成暴动和内乱,那么 deepfakes 内容将会被删除。反之,可能只是打上标记。2月,Twitter 在术语表中添加了一个新条款,涵盖了“合成和受控媒体”,表示会标注包含技术伪造内容的推文,并在人们转发推文之前向他们显示警告,并阻止推荐。
在肖锦阳看来,平台经过核验并带有标识的传播扩散,不失为一种好的方式。当然,在做技术检测的同时,通过相关法律规范各方行为也是必不可少的一步。
针对平台方,肖锦阳指出,平台应对于用户的隐私和 AI 换脸问题应当按照国家有关规定开展安全评估,进一步加强监管审核。
这是法律层面的讨论,但很多时候,人们都希望问题可以在法庭之外就能被解决,比如提高道德规范。
此前,在 GitHub 限制 deepfake 仓库时,就有许多开发者提及应该在学校教育中加入“计算机伦理课”,在学习写代码之外,了解相关法律、以及应如何使用技术的哲学和道德规范。甚至有人发出疑问:要不要制造可能被滥用的技术?这类问题也并不只是聚焦在 deepfake 上。一位科普及解密纪录片导演詹姆斯•巴拉特,2016年发表《我们最后的发明》一书,提出这样一个问题:“我怀疑的是先进人工智能的安全性,以及现代文明开发先进技术的鲁莽性。”
不过,储颖认为,技术本身无对错。从防止技术作恶的角度出发,开设计算机伦理课固然有必要,但要想守住底线,立法才是保证。“这涉及道德和法律的关系问题。道德是内在的,非强制性的;法律是外在的,具有明确的强制性。我们应在法律约束的基础上,尽可能地提高自己的道德标准。”
储颖现在正在教授《计算机伦理学》课程。这门课程4年前由计软学院首次在内部开设,去年开始增设了面向全校学生的“品牌通识课程”。储颖指出,目前在全国范围内开设此类伦理课程已经是一个趋势。2018年5月,国务院学位委员会颁布了《关于转发<关于制订工程类硕士专业学位研究生培养方案的指导意见>及说明的通知》,将工程伦理课纳入工程硕士专业学位研究生公共必修课范畴。近年来,全国工程专业学位研究生教育指导委员会已组织多期《工程伦理》师资培训课程。
而关于伦理课要讲什么,储颖也给出了自己的看法:
“目的不是告诉学生怎么做和做什么,而是提醒他,你需要思考这件事,并在将来做出正确的伦理抉择。”
更多信息来自:东方联盟网 vm888.com
- 02-23人工智能和python之间有什么联系?为何用python?
- 03-022021年值得关注的人工智能趋势
- 03-02人工智能和物联网——5个新兴的应用案例
- 03-02人工智能将使纺织工业的生产过程实现数字化和自动化
- 03-02如何应对人工智能在医疗保健领域的挑战
- 07-21人工智能、物联网和大数据如何拯救蜜蜂
- 01-11全球最受赞誉公司揭晓:苹果连续九年第一
- 12-09罗伯特·莫里斯:让黑客真正变黑
- 12-09谁闯入了中国网络?揭秘美国绝密黑客小组TA
- 12-09警示:iOS6 惊现“闪退”BUG
- 11-18LG新能源宣布与Bear Robotics达成合作,成为
- 11-18机构:三季度全球个人智能音频设备市场强势
- 11-18闲鱼:注册用户过6亿 AI技术已应用于闲置交
- 11-18美柚、宝宝树回应“涉黄短信骚扰”:未发现
- 11-01京东七鲜与前置仓完成融合