近期,配音行业发起了一场针对人工智能仿声技术侵权的集中声讨。与此同时,各类AI短剧中频繁出现的、与真人高度相似的虚拟形象,其肖像权问题也持续成为舆论焦点。从声音到肖像,生成式人工智能在内容创作领域的应用,正不断挑战现有的法律与伦理框架。
面对技术应用的快速发展,相关治理措施也在加紧跟进。国家互联网信息办公室此前公布了《数字虚拟人信息服务管理办法(征求意见稿)》,此举标志着对数字虚拟人等新兴业态的监管,即将步入更为系统化、法治化的新阶段。这一动向,无疑为规范市场提供了重要的政策指引。
侵权认定面临技术新挑战
当前AI侵权治理的复杂性,一方面源于技术门槛的持续降低,使得侵权行为更易发生;另一方面,则在于技术本身的演进速度远超法规的更新步伐。现阶段,AI换脸与声音克隆多表现为对特定个体肖像或声音的直接复制盗用。然而,随着技术的成熟,未来的侵权形态可能变得更加隐蔽和复杂。
有分析指出,未来的生成式人工智能或许不再需要“原样照搬”。它可以从海量不同个体的声音、肖像数据中提取特征,经过深度学习和复杂融合,生成一个全新的、但与特定原型存在一定相似度的合成产物。例如,一个声音或面容与某人仅有六七成相似,却又能让人产生明确联想,这种情况下如何界定侵权?法律与行业标准在“相似度”的认定上,尚存在模糊地带。可以预见,维权行动在未来可能面临更大的举证与认定困难。
从生成端溯源:大模型训练的版权之困
声音与肖像的侵权争议,引出了一个更为根本且影响深远的问题:为这些AI提供“养料”的大规模模型训练,其数据使用的边界何在?众所周知,任何强大的人工智能内容生成能力,其背后都依赖于对巨量数据材料的搜集、学习与训练。这就好比一次精密的体育赛事分析,需要建立在长期、全面的历史数据与实时信息基础之上,才能得出有价值的结论。
那么,在未获得明确授权的前提下,AI开发者是否有权使用个人的肖像、声音、乃至作家的文字作品作为训练数据?即便能够通过某些渠道合法获取这些数据,开发者是否应当向数据的原始创作者或拥有者支付相应的报酬?更为关键的是,整个行业迫切需要建立一套清晰、可执行的数据获取、管理与应用标准,以平衡技术创新与权益保护。
此前,包括理查德·奥斯曼、石黑一雄在内的多位国际知名作家曾联合发声,对Meta公司使用受版权保护的书籍训练人工智能模型的行为提出质疑,并呼吁政府介入监管。这一事件将大模型训练中的数据版权问题推向了国际舆论的前台。
模块化创作:侵权认定陷入灰色地带
与个体的生物特征数据类似,当书籍、画作等创作成果被AI系统视为可拆解、可重组的数据模块时,侵权认定将变得异常棘手。生成式人工智能能够深度“学习”并融合多位作家的行文逻辑、语言风格与创作技巧,进而“自动化”地产出混合了多种风格的作品。最终成品可能并不直接抄袭任何一段具体文字,却整体上弥漫着特定作者的“影子”。这种“似侵非侵”的状态,构成了版权保护的新盲区。
行业观察者认为,在关注AI生成内容本身是否侵权的同时,监管与讨论的焦点更应前移至产业链的源头——即训练数据本身。这些构成了AI智慧基石的海量材料,是否得到了应有的、严格的保护?又应以何种方式进行保护?这些问题,已成为横亘在技术发展道路上的核心议题,亟待社会各界的深入探讨与共识构建。
在人工智能技术日新月异的今天,如何在激励创新与保护原创者权益之间找到平衡点,是对立法者、行业参与者和全社会智慧的一次考验。正如在复杂竞争中寻求突破一样,需要审慎的策略与清晰的规则。只有建立起公平、透明的数据使用规则,才能为人工智能产业的健康、可持续发展奠定长远基础,真正释放其造福社会的潜力。