10元能买女星人脸“万能模型”!专家呼吁加强立法规制AI换脸技术

南方法治
+订阅

近日,广州一女子在地铁上的照片被AI“一键脱衣”,虚假图片在网络广泛传播。此前,某男网红使用“AI换脸”技术,替换掉电视剧中的男主角头像,制作自己与女明星亲吻的画面,同样引发争议。记者调查发现,互联网上有人售卖人脸合成视频制作教程和明星人脸“万能模型”,一套模型只需10元,购买后可在软件内直接用于生成“换脸”视频。

制作、出售“换脸”视频的行为有哪些法律风险?如何明确“AI换脸”“AI变装”等技术的应用边界?受访专家表示,只要未经肖像权人同意,利用AI技术制作他人换脸视频,都涉嫌侵权。面对层出不穷的由AI技术带来的侵权纠纷和违法犯罪问题,专家建议制定AI使用规范及行业标准,同时探索建立AI侵权纠纷的相关法律框架、诉讼程序和赔偿标准等。

调查:仍有卖家兜售女明星人脸模型、操作教程

随着“AI换脸”等深度合成技术的日臻成熟,其引发的各类侵权纠纷甚至违法犯罪也越来越多。

记者梳理发现,近年来不断有公众人物因AI换脸视频侵权纠纷将视频制作者告上法庭。此前,曾有网络黑灰产从业者通过网络论坛出售AI换脸技术合成的淫秽视频,或在二手交易平台为买家“定制”类似视频,多位知名女明星成为受害者。

记者搜索发现,目前相关论坛已被封禁,违法商家也被平台下架。但人脸信息仍存在被滥用的风险。在某二手交易平台,有人公开出售某合成软件中经过数百万次“迭代”的女明星的人脸模型和相关操作教程、软件安装包。


技术资料显示,所谓“迭代”是用人工智能手段对特定人脸信息进行深度学习和“训练”的过程,是实现“AI换脸”的核心步骤之一。在一定次数范围内,模型经过迭代的次数越多,其合成视频的效果越逼真。

卖家介绍,这些被售出的明星人脸模型通常被用来制作娱乐视频。记者发现,在国内视频网站内,不少职业视频博主专门生产此类合成视频以赚取流量。

而在互联网的某些灰暗角落,此类深度合成技术成为不法分子的作案工具。

有业内人士透露,只要熟练运用这类软件,实现一键“换脸”、一键“脱衣”等并不困难。去年5月,谷歌AI已经禁止应用这类软件训练视频,理由是相关技术被用于冒充或诽谤他人、散布不实信息甚至诈骗。

在国内,多地司法机关曾披露过相关“‘变脸’诈骗”案例。如江苏常州法院公布一起“人脸解封”侵犯公民个人信息案:被告从他人处购得被害人姓名、身份证号、照片、视频等个人信息,通过技术手段骗过社交平台人脸识别,从而帮助诈骗团伙实施犯罪。

说法:无论盈利与否未经授权即涉嫌侵权

对于“AI换脸”等深度合成技术,“合理使用”的边界在哪?“不合理”使用可能会面临哪些法律问题?

广东财经大学网络与传播学院副教授许哲认为,判断行为人是否侵犯肖像权,要看其是否取得了被“换脸”自然人的肖像权授权,“无论肖像权人影响力大小,是否著名,也不论是否为了盈利,只要没有取得相关授权,都涉嫌侵犯肖像权。”

具体针对“换头亲吻女明星”事件,广东立幸律师事务所律师莫圣玮认为,男网红利用技术手段制作自己与女明星“亲吻”的画面,可能侵犯了女明星的肖像权和名誉权。而其在未取得影视作品授权情况下对作品进行二次创作,并发布用于营利,还可能构成对影视作品版权的侵权。

对于二手交易平台商家售卖经AI迭代训练的女星人脸模型的行为,许哲认为,根据个人信息保护法相关规定,如果模型是由未经授权的照片生成的,商家也涉嫌侵权。“这些人脸的数据模型包含个人的脸部生物信息,没有取得个人同意,就没有合法交易基础。”

许哲说,通过网络市场售卖此类人脸模型,在法律上应视为向其他个人信息处理者提供其处理的个人信息。而按照个人信息保护法的规定,视频制作者应再次取得肖像权人的单独同意,“该二手平台上售卖的人脸模型,一般没有经本人同意,因此属于侵害个人信息权益的行为。”

除面临侵权风险,“AI换脸”等技术的滥用还涉嫌多种违法犯罪。

有网友热议“换头亲吻女明星”的行为人是否构成“隔空猥亵”。“隔空猥亵”是检察机关针对侵害未成年人案件而提出的概念,指行为人通过网络方式诱骗、胁迫未成年受害人进行“裸聊”或发送“裸照”“裸体视频”等方式进行猥亵的犯罪行为。

“该案例中男网红主观上出于商业目的而非满足性刺激,客观上也没有诱骗、胁迫的行为,不符合‘隔空猥亵’的形式要件。”莫圣玮认为,但其行为有明显令人不适的性暗示以及捏造事实、侮辱等性质,涉嫌违反《治安管理处罚法》的有关规定。

在女子被“一键脱衣”事件中,莫圣玮认为,造谣者除侵犯受害者民事权益,可能还涉嫌诽谤罪、侮辱罪,如果大量传播照片并牟利的,则涉嫌传播淫秽物品罪。

建议:法律、伦理、技术手段“多管齐下”形成规制

加强对“AI换脸”等深度合成技术的规范,有关部门一直在行动。

今年1月,《互联网信息服务深度合成管理规定》(以下简称《规定》)正式实施,其中明确规定网信部门和电信主管部门、公安部门等监管部门,需要加强监督检查、技术治理,对不当使用AI合成技术的机构和人员,按照有关法律、行政法规采取措施,进行整改;造成严重后果的,依法从重处罚。

在许哲看来,进一步实现对深度合成技术的规制,需要法律、伦理、技术手段“多管齐下”。“比如,AI换脸等深度合成服务提供商要履行自身的法律义务,包括实名注册义务、提示义务、标识义务等。”许哲认为,按照《规定》要求,技术服务商对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。

具体操作中,莫圣玮建议,相关视频发布时应当在显著位置标注“人脸合成视频”,以尽提示和标识义务,“从发布程序来看,视频制作者应遵守‘知情’‘同意’为前提的信息使用原则,使用他人面部识别信息,影视频素材时,应详细说明使用目的、范围、传播途径等。”

“未来应规范平台开发商建立AI侵权监管机制,规定AI开发以及使用主体在使用人类信息和数据时必须遵守隐私保护和知识产权等法律法规,对侵权行为进行监管和制裁。”许哲建议,监管部门需及时制定AI使用规范及行业标准,明确AI开发以及使用主体在商业活动中的责任和义务,完善相关合规流程及制度。比如建立责任保险制度。

人工智能的责任保险制度可以理解为“给AI上一份保险”,避免出现由于技术失控导致被侵权者无处索赔的情况。有专家指出,该制度关注损害填补和责任转移,可以增强人工智能产品生产者的赔付能力,为人工智能领域民事责任分配和承担提供新的解决方案。

目前我国还没有针对人工智能伦理规范的法律法规。许哲建议完善与AI相关的法律制度,建立AI侵权纠纷的法律框架、诉讼程序和赔偿标准等,提高法律适用效率和公正性。

普通人被遭遇AI侵权后如何维权?许哲建议,被侵权人可以及时留存视频截图等相关证据,必要时通过公证机关证明,并向侵权人提起诉讼。

【记者】孟健 吴晓娴

编辑 张鹏
校对 曹柏英
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开