N央视新闻 央广网 齐鲁晚报
近日,多名配音演员相继公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。有评论认为,目前,AI仿声侵权已经形成了一条“素材采集—内容生成—流量变现”的灰色产业链。同时,AI仿声侵权比AI换脸更隐蔽,维权难度更大。配音演员的声音是如何被“偷走”的?维权难,难在哪里?又该如何破局?
经典声线遭克隆 配音演员“被AI代言”
从《甜蜜蜜》里的黎小军,到《无间道》中的刘建明,配音演员叶清塑造了经典的人物形象。就在不久前,短视频平台上出现了一集AI生成的短剧,许多观众通过弹幕刷屏:主人公的旁白是“叶清老师的声音”。3月21日晚接受记者采访时,叶清坦言,AI短剧里对他的音色还原度极高。
叶清表示:“旁白就是我的声音,我一听表达方式(又不对),就是如果我面对这种文字,我就不会这样去说,但是它又实实在在是我的声音在说这个话,那就变成我被迫要接受这不是我的意愿,但是用我的声音去演绎的作品。这些东西没有经过任何许可,就让我们的声音可能遍布满大街,或者人家会觉得这个价值就没有了。”
类似的经历在配音行业中屡见不鲜。配音导演、配音演员李龙滨也经常成为这种侵权行为的受害者。
李龙滨讲述:“经常会有朋友发过来,说龙滨老师这是你的声音吗?我听一下,真的很像。尤其短的、手调之后,我觉得相似度能达到90%以上了。比如我配张家辉的《激战》里边的场面,经常会被AI,而且它改完词之后二创,有时候连我自己都要仔细分辨一下。”
艺术被消解 风险被放大
未经授权的AI仿声,对配音演员和整个行业带来前所未有的冲击。
对于从业近二十年的季冠霖而言,声音不仅是谋生的工具,更是个人身份的重要标识。她曾为《甄嬛传》中的甄嬛、《大鱼海棠》中的椿等经典角色献声,独特的声音辨识度早已成为其职业价值的重要组成部分。
在声明中,季冠霖详细描述了近年遭遇的侵权情形。她坦言,部分网络用户及平台在未经授权的情况下,擅自采集她的声音样本进行AI模型训练,生成高度相似甚至以假乱真的合成音频。这些音频被广泛应用于影视二创、短剧配音、有声读物等多个场景,既有商业用途,也有非商业性质的传播。
她认为,在艺术层面上,无序发展的AI仿声消解着配音演员的表演能力和情感流动。
季冠霖说:“我们每一个配音演员,在录制每个角色的时候,真的是在用自己流动的情感以及这么多年的生命体验去工作的,这跟AI生成不一样。如果未来没有更多的演员愿意在声音塑造上做事情的话,那就不可能再有新的素材。没有新的素材,AI就永远在旧的素材里无限循环。”
季冠霖认为,未经授权的AI仿声除了降低配音行业应有的艺术水准和价值之外,还会让配音演员面临诸多法律风险。“它可能会说很多过分的语言,甚至是违背公序良俗的语言,最害怕的是未来有没有可能它用我的声音生成一段违法、行骗的语音,或者是一个虚假广告。这些如果被生成了,那我们怎么去界定它是AI还是我本人?”
侵权门槛低 配音行业面临系统性挑战
AI技术对配音行业的冲击,正从个案演变为系统性挑战。一方面,部分简单重复的配音工作确可被技术替代,中低端从业者的生存空间正被不断挤压。另一方面,即便对于头部配音演员而言,声音资产的保护也日益棘手。
记者在相关平台检索发现,短视频、广告配音、有声书等领域,AI生成内容已占相当比例。这些合成音频数量庞大,且呈现出规模化趋势。配音演员的声音被当作“数据资源”,被随意抓取和利用,而他们本人却往往毫不知情,更无法掌控这些声音的用途与传播范围。过去需要专业录音棚和大量样本才能完成的语音克隆,如今借助开源模型和少量音频素材即可实现。部分网络平台甚至提供“声音复刻”服务,用户只需上传数分钟的人声素材,便可生成可调用的AI语音模型,侵权门槛被大幅降低。
更有网友公开发布AI声音克隆教程。下载相关剪辑软件后,依照教程上传一段包含配音演员独白台词的视频素材,短短几分钟便可生成一段相似度极高的配音视频。记者试用后发现,部分平台虽设置了音色检测门槛,“需要认证你的声音,请录制一句本人的录音来核实原音频是你本人的声音”,但仍有网友提供其他克隆声音的网站渠道。
认定、监管仿声 面临三大难题
针对未经授权的AI仿声带来的行业与个人困境,法律层面是如何界定的?中国政法大学人工智能法研究院院长张凌寒表示,一方面,可能侵犯配音演员的声音人格权,另一方面,还可能侵犯相关影视剧作品的著作权。
张凌寒表示:“从法律角度看,未经授权采集声音素材是违反了民法典的相关规定。根据我国法律,对于声音的保护,参照于肖像的保护,没有经过权利人的同意,有可能对权利人的声音权利也就是人格权益造成侵害。如果说相关的声音是从有关的影视作品片段或者是声音素材当中采集出来的,也有可能侵犯了相关权利人的著作权。”
然而,多位业内人士及法律专家认为,在实践中,如何认定AI仿声侵权、如何去监管,目前有现实的难题。首先是取证链条弱。叶清认为,网络传播的AI语音多为碎片化二次加工,难以追溯源头,固定完整侵权链路。
叶清说:“一般情况下,要找一些点击率比较高的视频,才有维权的价值。找到视频发布者的信息很难,律师花了很长的时间,可能持续一年,才找到第一个(侵权人)的信息。而且同行里还有取证的问题,你怎么证明这个声音就是你的?那可能要声纹鉴定,其实也是耗时耗力的。”
此类维权的另一个难点是“鉴定”难。不同于能看得见、摸得着的肖像权,声音没有实体,听得到、抓不住,容易被剪辑、篡改、变速。对于配音演员来说,切换多种声线更是工作常态,在此基础上,AI微调音色、语调等就可以做到高度相似但非1∶1复刻。
李龙滨表示:“因为这些年他们采集了非常多人的声纹,有足够多的声纹素材,会把这些声纹捏在一起,会让人觉得像你又不像你。这就跟水墨画一样,掺的比例不同,你很难界定,在技术上去维权非常难。”
张凌寒表示,训练数据不透明,被侵权人难以证明数据来源,因此,追责面临不小的困难。
张凌寒进一步说道:“侵权行为的判定,并不要求声纹百分之百对比一致,而只要有可能造成公众混淆,就达到了侵权损害的构成要件。更重要的是对于AI声音侵权,追责是比较难的,因为侵权方可能会说,我是从公开网站上采集的各种各样的身份信息,很难说它就是采取了这样一个侵犯著作权的行为。”
AI声音使用如何走向合规?
那么,该如何探索AI技术与配音行业的合法共存模式?叶清认为,首先声音使用方应正视法律问题,通过合规的手段取得授权并恰当使用AI仿声技术。
叶清表示:“行业现在面临着AI的很多问题,这也是一个趋势。比如你的声音音色比较好,你的表达方式或者说话方式是别人比较喜欢的,那你去跟你的合作者谈,是真人去演绎,还是说用你的AI。比如你想用我的声音去念《辞海》,那我要念好多年才能念完,但如果念《辞海》是一个标准化的语气,那我只要提供我的音色就可以了。你认可这种表演,包括制作方也认可,这个作品才是有保障的。”
中国政法大学知识产权中心特约研究员赵占领认为,行业自律与平台规则同样是构建合规生态的重要一环。
赵占领表示:“目前,司法实践的经验还不是很充分,需要积累作判断。在监管政策还没有出台的情况下,网络平台、AI软件平台可以要求和禁止用户未经授权使用他人声音进行AI生成。”
多位受访者还呼吁,未来希望通过加水印等技术手段,为AI声音搭建可追溯、可识别的安全框架。
“比如AI声音中的水印如何嵌入,这需要一个统一的规范技术标准。在配音行业中,高质量有商业价值的声音相对来说不那么多。对于这样的配音演员,是不是可以把自己的声音和声纹进行单独备案,以便将来更好追责。相信有了相关的判定之后,随着监管制度、标识制度和取证制度的逐步完善,对于配音演员声音有效的保护机制能够迅速建立起来。”张凌寒说。