AI 语音合成技术:20 秒生成逼真音频,是便利还是隐患?

2024-10-29 02:05:22来源:北方时空

当前,随着科技的迅猛进步,人工智能技术极大地丰富了我们的生活,然而,它也引发了一系列问题。近期,便有一则事件引起了广泛关注:一些表面上看似企业家亲自发表的吐槽视频,实则是由AI技术合成的。

AI造假企业家发声现象

近年来,AI技术迅速发展。社交软件上,有人发现利用AI软件可以采集企业家原音,进而生成逼真的配音。例如,某应用网站上,以企业家音频为素材,AI经过学习后能够模仿其声音角色。今年9月底,卢某某便遭遇了此类伪造发声的情况,其所属直播平台也因此引发了争议。这一现象表明,AI技术被不当使用,可能产生重大影响。在当前的网络环境下,此类事件并非孤例,众多公众人物都有可能面临被AI技术利用进行声音造假的潜在风险。

AI技术的进步是导致此现象的主要原因。技术的不断革新使得声音克隆变得愈发简便。这一变化不仅可能对个人声誉造成损害,而且可能对企业或组织带来负面效应。

AI音频生成教程被公开

社交软件上已出现AI音频生成教程的发布。这导致更多人得以轻松掌握并应用相关技能。记者经过实际操作验证,发现遵循应用网站提供的指引进行操作极为简便。只需选择企业家声音角色,输入不超过100字的文本,即可在20秒内生成高度逼真的音频。这一现象表明,具备一定操作技能和素材资源的人士,均能制作出此类虚假音频。

该现象引发了诸多问题,公开教程使得更多人得以尝试制作虚假音频。门槛极低,AI生成虚假音频的现象将愈发普遍,进而使更多人面临被伪造声音的风险。

背后的法律风险被忽视的现状

众多网民在制作他人AI音频合成时,多持娱乐目的。他们未充分认识到,此类行为可能触及法律风险。许多人对此仅视为玩笑,忽视了其潜在严重后果。

中国社会科学院大学法学院副教授提出,若未经授权将他人声音用于制作AI语音产品,极易导致误解。无论是出于娱乐还是商业目的,此类行为均构成对人格权的侵犯。在一宗案例中,一位配音师因自身声音权益受到侵犯而提起诉讼,并最终获得了赔偿。这一案例表明,无论动机如何,此类行为均受到法律的禁止。

企业方的辩护观点

在相关案件中,被告公司提出了自己的辩护立场。该公司主张,人工智能合成的声音产品与自然人的声音在人身权属性方面存在差异。此外,他们还认为,当前技术通过在AI合成声音中添加水印标记,已将二者之间的联系切断,因此不会产生相关的人格属性。

然而,从实际情况分析,这一观点存在不足之处。技术的引入并不能完全消除声音与人类语音之间的关联。即便有标记,普通人在听到时仍可能误以为是本人的声音,因此,该辩护立场难以稳固。

法院对于AI声音权益的判定

法院在处理该类案件时持明确立场。据法院观点,人工智能生成的声音与原告的声音极为相似,足以引发公众对原告的联想或情感反应,并能与原告本人产生关联。在声音具备辨识度的前提下,自然人的声音权益保护应包括由AI产生的声音。

该判决对于保障个人权益具有显著价值。它明确指出,即便是由AI合成的声音,只要与个人原有声音存在关联并能被准确辨识,个人仍享有维护其声音权益的权利。此举为类似案件的审理提供了重要的参考依据。

各方对于AI语音应用规范的建议

张清鑫强调,AI语音应用工具的提供方需承担起审查职责,这涵盖了强化对原始素材的管控、监督生成内容的质量、优化运营规范,并需主动参与违法内容的溯源工作。刘晓春则建议,短视频平台等内容的传播者应向用户提示内容来源,并构建内容甄别及追踪体系。

若这些建议得以落实,对抵御AI声音伪造无疑具有正面影响。然而,目前尚无法确定这些建议能否得到各方的广泛接受与有效执行。针对如何更有效地推广这些措施,各界应如何着手?我们期待广大读者踊跃发表意见,并欢迎点赞及转发本篇文章。