警惕AI“偷声”侵权乱象
来源: 赣法云·新法治报 | 日期: 2026年03月25日 | 制作: 贾辛 | 新闻热线: 0791-86847870
近日,多名配音演员相继公开发声,反对在未经当事人同意的情况下,擅自采集其声音素材用于AI训练、音色合成及商业变现,相关话题一度登上网络热搜。版权问题一直是内容创作界的热点,但值得注意的是,此次事件并非普通的行业纠纷,其背后映射出的是AI发展新形势下围绕声音权益的新型侵权乱象。
依据民法典规定,对自然人声音的保护,参照适用肖像权保护的有关规定。而民法典关于肖像权保护的条款指出,未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。配音演员的声音兼具人格标识属性与商业价值,未经知情同意擅自采集其配音作品用于AI训练、音色合成及商业变现,不属于合理使用范畴,符合侵权构成要件。因此,AI“偷声”本质上是一种侵权行为。
当前,AI“偷声”相对于传统的声音侵权,呈现出新的特点。其侵权行为往往不再表现为直接使用完整作品,而是突出体现在扒取、拆解、采集声音素材用来训练AI模型,目标是复刻音色、合成新语音,再用于商用。这种侵权行为隐蔽性更强,通过提取作品中的特征,经过AI的改造、传播后,难以溯源侵权行为、找到侵权行为实施人,加大了被侵权者维权的难度。
AI“偷声”侵权不仅触碰法律红线,更对配音行业生态环境构成冲击。AI虽能复刻真人音色,却复刻不了真人配音的情感张力与角色塑造力。若长期放任AI“偷声”侵权并以此牟利,不仅会消解配音行业的专业价值,更将透支内容创作的生命力。抵制AI“偷声”侵权,既需法规法则的细化,明确AI训练的合法边界,也需明晰划定平台责任,让相关方守住底线,拒绝利用无授权素材获利。唯有技术创新不凌驾于创作者的权益之上时,AI才能真正实现对行业的良性赋能。
(邓艺辉)
编辑:贾辛
校对:衷丽萍
审核:王晓明