首页 > 视听 > 中国财经60分

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

AI拟声科技带来方便,却要谨防侵权

第一财经2026-04-10 18:43:49

责编:张铭

随着人工智能语音大模型的迅猛发展,仅需几秒钟的音频样本,就能生成与本人音色、语调、节奏高度一致的“数字分身”。这种技术本可用于语音助手、有声读物等便民场景,却在黑产与商业滥用中迅速异化为“声音盗窃”的工具。近期,多名知名配音演员及普通公众反映,自己的声音被未经许可地克隆,并用于商业用途,而维权之路却因证据难认、成本高昂、赔偿微薄而步履维艰。具体情况来听第一财经广播崔琦的介绍。

 

记者尝试录制了一句话的音频,作为声音克隆的素材。

【今天天气很好,我现在在北京海淀区西北旺天融信大厦】

 

网络安全专家随意截取了其中一秒钟音频作为克隆样本,仅仅几秒钟后,记者的克隆声音就朗读出了一段从未录制过的文字。

【紫禁城是明清两代,皇宫气势恢宏,金碧辉煌,殿宇重重,展现皇家威严】

 

克隆声音的音色、语速、停顿甚至呼吸节奏,均与记者的原声高度相似。网络安全专家指出,目前AI克隆声音已经不再需要大量的音频素材,其技术核心是对个人声音表达特征的深度学习,

【它是首先是从你这个短短几秒的这个音频素材里面,学习到它里面的你这个个人的一个表达习惯、语速、语调,然后呢这个模型再通过你要让它读取的这个内容去朗读指定的内容,这样就能够实现一个声音克隆的一个完整过程。】

 

这种技术的低门槛,正催生一场无声的侵权风暴。配音演员苏杨林在刷短视频平台时,意外听见自己被克隆的声音在一部网络短剧中朗读台词。

【听到我的声音,当时就懵了,我说我好像没录过这个台词,我没有任何印象,所以就是很明显就是被盗用了。】

 

类似遭遇的还有为《哪吒》配音的吕燕婷、为《甄嬛传》配音的季冠霖等业内知名人士,他们的声音均在未经授权的情况下,被用于各类商业短剧与广告中。

 

更典型的案例来自配音演员米子。2025年底,她为一家连锁KTV录制了两句跨年广告词,合同明确限定使用范围。然而,当广告上线后,她发现原本两句的配音被悄然扩展为三句——多出的一句,正是AI克隆她的声音生成。该广告随后在全国百余家门店循环播放,并同步投放于多个主流短视频与社交媒体平台。

【我第一时间去录屏了,把所有的相关证据尽我所能的进行了保存。然后对方当时直接跟你说赔偿200块钱,呀唉大家交个朋友呀,就是他一直没有意识到这是侵权的行为,他侵害了我的权益。我当时就要求要全部下架,然后要公开道歉之类的,他们就给拒绝了。】

 

为维权,米子先后拨打12345、12315投诉,还专门赶赴北京,找律师递交律师函,耗时三个月。可她的维权之路却陷入了立案难的死循环。核心问题在于证据不被法院认可,而补充证据的机会早已丧失,

【法院说不承认这种证据,他们要求我现在得重新去公证处,然后再拿他们指定的软件进行拍,但是这个视频已经过了使用期限,该下架的也全都下架了,我即便重新公证让法院去接受了,我最后的胜诉赔偿款可能都不够覆盖我的前期投入】

 

这并非个案。当前AI声音侵权维权面临“三难”:一是“取证难”,电子证据易被篡改、删除,且法院普遍要求“公证存证”,而普通用户不具备技术能力与经济条件即时完成;二是“溯源难”,侵权内容分散于数十个平台,AI生成语音可融合多声线,难以锁定原始盗用源;三是“赔偿难”,现行法律对声音权属、可识别性标准、损害评估缺乏明确细则,赔偿金额常被压至数百元,远低于维权成本。

 

业内人士指出,要破解这一困局,必须构建“技术+法律+平台”三位一体的防护网。在法律层面,应细化AI声音侵权的认定标准、责任划分及赔偿机制,为权利人提供清晰维权指引;在技术层面,可推动AI声音水印、区块链溯源等技术手段的研发与应用,让侵权行为无处遁形;在责任落实层面,应推动制作公司、网络平台等切实履行主体责任,通过建立健全相关机制,遏制“偷声”“盗声”等不法行为在网络空间蔓延。

 

声音,既是人格尊严的外在表达,也是数字时代个人身份的重要标识。技术的进步不应以牺牲个体权利为代价。当克隆声音变得轻而易举,保护声音权益的法治防线更应坚不可摧。唯有让侵权者付出应有代价,让维权者拥有通畅路径,方能在技术浪潮中守护好每个人的独特声纹,让AI技术真正服务于人,而非侵扰于人。

举报
一财最热
点击关闭