滥用公众人物声音恶搞,AI技术应用“玩过界”被质疑

发布时间:2024-12-16 02:31:53 来源: sp20241216

  从“一眼假”到“真假难辨”再到“深度伪造”,生成一条音频只需20秒

  本报记者 陈曦

  近日,一些短视频平台涌现了大量某知名企业家吐槽的视频。在视频中,该企业家对堵车、调休、游戏等热门话题进行了调侃和锐评,甚至还有不雅词汇穿插其间,引发网友热议。

  事实上,那些吐槽视频并非该企业家本人在发声,而是由网友利用AI软件采集该企业家原音生成的配音,但逼真的效果让不少人信以为真。

  AI的发展为生活带来了许多便利,但一些乱象也引发质疑。以AI语音合成技术为例,只需要打开软件、动动手指,一条以假乱真的配音视频就能新鲜出炉。然而,有的视频越过了开玩笑的边界,“偷走”他人声音进行恶搞、造谣,带来了恶劣的社会影响。

  20秒就能生成一条AI音频

  记者在社交软件上检索AI配音发现,不少用户发布了相关视频的生成教程。其中,大部分视频的配音都源于某拟真语音大模型应用。

  在该应用网站上,创作者上传任意人物的一段音频作为训练素材,随后AI通过学习可克隆出一个声音角色。网站中的其他用户只需输入文本,便可以使用该声音生成内容。

  按照该网站的使用指引,记者添加了上述知名企业家的声音角色,输入一段100字的文本,然后点击“开始生成”,约20秒,一条与该企业家声音相似度极高的AI音频就生成了。记者发现,截至目前,该声音角色已被使用79.9万次,生成字符数达4455.5万个。

  被“偷走”声音的公众人物还有不少。今年9月底,一段据称是某直播平台老板卢某某的酒后录音在网络上流传,整体呈现出卢某某对于消费者的傲慢态度,以及对相关人士的不尊重表达,为该平台招致了不小的争议。后警方调查发现,音频内容不实,系大模型伪造而成。

  一位业内人士告诉记者,通过模仿音频样本的语调、语速、情感、口音、发声方式等特征,AI技术已经能够高度还原音频样本的声音,达到人耳和其他鉴定方式难以区分的程度。

  “从早期的‘一眼假’到如今的‘真假难辨’,AI的发展进入了‘深度伪造’时代。”中国社会科学院大学法学院副教授、互联网法治研究中心主任刘晓春向记者表示,在未经过授权、未进行标注的情况下,用他人声音制作AI语音产品,尤其是“借用”公众人物的声音,很容易引起误解,这不仅会侵害个人信息安全,还可能扰乱网络空间生态秩序。

  滥用他人声音侵犯人格权

  当前,不少网友在合成他人的AI音频时,仅抱着娱乐心态,并没有意识到背后隐藏的法律风险。记者注意到,在一条“AI配音教程”视频的评论区,有学员提问“这样不侵权吗”?

  博主回复称:“大家都在做,如果提示违规,删了就行了。”

  对此,北京盈善律师事务所律师张清鑫分析称,与“肖像”类似,自然人的声音具有唯一性、独特性,是自然人人格的重要组成部分,声音权益是人格权的一种。制作并上传他人AI音频的行为,无论是出于商业目的还是娱乐目的,都已构成对其人格权的侵犯。如果配音内容违法或违反公序良俗,可能侵犯他人的名誉权。

  据了解,今年4月,北京互联网法院一审开庭宣判了全国首例AI生成声音人格权侵权案。该案中,配音师因认为自身作品被短视频平台利用AI生成语音产品,严重侵犯了自己的声音权益,将短视频平台及制作方等5家公司诉至法院,最终原告获赔经济损失25万元。

  在审理过程中,被告公司辩称,人工智能合成后的声音产品,与自然人声音在人身权属性上有所区别,目前技术都会对人工智能合成声音进行水印标记,切断了人工智能合成声音与自然人声音之间的联系,不会产生对应自然人的人格属性。而法院认为,AI声音与原告声音具有高度一致性,能够引起一般人产生与原告有关的思想或感情活动,能够将该声音联系到原告本人。在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。

  “该判决对于厘清和把握AI生成声音的边界具有指导意义。”刘晓春说。

  治理手段要跟上科技步伐

  清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增长99.91%。受访专家表示,法律法规和治理手段要跟上科技发展的步伐,对AI技术的应用进行明确的约束,引导科技向善。

  张清鑫认为,AI语音应用工具提供方不能“置身事外”,而是要把好第一道关,强化对源头素材的把控和对生成内容的监管,完善运营规则,并在出现问题时积极配合有关部门,追溯违法音频的生成源头。

  今年9月,国家网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》提出,提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动。包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。

  “作为内容传播的服务提供者,短视频等传播平台应尽到相关义务。”刘晓春建议,除了提示用户进行标识以外,平台也应对AI生成内容建立甄别和追踪的机制。如果发现涉嫌伪造的内容或者接到相关投诉,应当要求内容发布者及时对伪造内容进行标识,在不标识的情况之下,可以根据平台规则删除内容,造成严重后果的可以进行禁言、封号等处理。 【编辑:于晓】