白宫AI版权大模型训练版权政策

白宫发布AI版权训练立法建议:技术与权利间的艰难抉择

2026年3月20日,特朗普政府正式发布《国家人工智能政策框架:立法建议》(A National Policy Framework for Artificial Intelligence: Legislative Recommendations)。这是一份仅有四页的政策文件,分量却着实不低。白宫明确表态认为AI模型使用受版权保护的材料进行训练不违反版权法,同时建议国会探索集体许可机制,赋予权利人与

张延来律师
2026年4月1日约 13 分钟阅读3 次阅读

白宫发布AI版权训练立法建议:技术与权利间的艰难抉择

2026年3月20日,特朗普政府正式发布《国家人工智能政策框架:立法建议》(A National Policy Framework for Artificial Intelligence: Legislative Recommendations)。这是一份仅有四页的政策文件,分量却着实不低。白宫明确表态认为AI模型使用受版权保护的材料进行训练不违反版权法,同时建议国会探索集体许可机制,赋予权利人与AI企业谈判的渠道,但将"合理使用"的最终裁量权交给法院。

这一政策表态,是对当前美国乃至全球范围内如火如荼的AI版权诉讼潮的一次官方定调,也是对AI时代"技术发展"与"权利保护"这一核心矛盾的再平衡。对当下全球范围内的AI版权争端和立法都有借鉴意义。

一、政策底色:大国博弈下的"技术优先"

理解白宫的AI版权政策,不能脱离其宏观的政策语境。《国家人工智能政策框架》开篇即明志:"特朗普政府致力于赢得AI竞赛,以开创人类繁荣、经济竞争力和国家安全的新纪元。"在七大政策目标中,"确保美国AI主导地位"(Ensuring American AI Dominance)被列为核心支柱之一。

在当前的全球AI竞争格局中,高质量的数据是训练大模型的核心"燃料"。如果严格按照传统的版权法逻辑,要求AI开发者在训练前必须获得海量数据的逐一授权,这无异于要求他们在"向河流里排污水"之前,先"一勺一勺捞污水"进行净化——这在技术和商业上的成本确实太高。

白宫明确表态"AI模型对受版权保护材料的训练不违反版权法",本质上是为美国本土的AI企业(如OpenAI、Anthropic、Meta等)松绑。哈德逊研究所(Hudson Institute)的分析就明确指出,如果美国在版权问题上过于严苛,而竞争对手在数据使用上更加宽松,那么美国在AI领域的领先地位将受到严重威胁。"讽刺的是,中国AI工具如果能获得更多版权材料的使用权,将更有可能赢得全球AI市场份额的激烈竞争。"

这种"技术优先"的政策导向,是国家战略层面的必然选择。它揭示了一个残酷的现实:在AI时代,版权规则已经不再只是文化产业的内部事务,而是直接关乎国家科技竞争力的地缘政治议题。

二、司法实践:诉讼浪潮中的"合理使用"攻防

白宫的政策表态也有着坚实的司法实践基础。过去两年间,美国法院在一系列标志性案件中,已经开始为AI训练的"合理使用"问题划定轮廓。

Bartz et al. v. Anthropic 是其中最具里程碑意义的案件。2025年6月,加州联邦法院裁定,Anthropic将争议书籍用于训练Claude模型的行为"极具转换性",符合美国版权法规定的"合理使用"原则。然而,法院同时认定,存储盗版书籍副本的行为不构成合理使用。此后,该案以15亿美元的天价和解,每部作品的估计赔付约为3000美元。

Kadrey et al. v. Meta Platforms Inc. 则呈现了类似的逻辑。法院在Meta的Llama大模型训练问题上,部分支持了合理使用的抗辩,但涉及种子文件传播过程中对盗版作品的复制问题,仍在北加州联邦法院审理中。

然而,并非所有案件都对AI企业有利。Thomson Reuters v. Ross Intelligence 案中,法院认定Ross Intelligence使用Westlaw案例摘要训练其AI法律检索工具的行为不构成合理使用,因为这种使用直接替代了原告的市场。这一判决提醒我们,"合理使用"并非AI训练的万能护身符,其适用与否,高度依赖于具体的应用场景和市场替代效果。

从这一系列案件中可以清晰地看出,美国司法实践正在形成一条基本逻辑:预训练阶段的大规模数据使用,倾向于认定为具有转换性的合理使用;但如果训练方式涉及盗版数据的存储复制,或者生成的输出直接替代了原作品的市场,则可能构成侵权。白宫的政策表态,也算是对这一司法趋势的呼应和背书。

三、技术逻辑:"铸剑"与"舞剑"的区别

我之前也写过训练阶段的一篇分析文章《“铸剑”与“舞剑”:将定向训练后的模型能力从“独创性”中剥离》,实际上模型训练对产业的影响甚至有可能超过模型生成,白宫此次支持AI训练构成"合理使用",在法律逻辑上是否站得住脚,仍需要回归到AI技术的本质进行分析。

笔者一直坚持此前文章中的看法,AI模型的训练过程是"铸剑",而AI生成内容的输出过程是"舞剑"。 这两个阶段在技术本质上截然不同,法律评价也应当有所区分。

在"铸剑"阶段,大模型通过反向传播算法,将海量文本、图像等数据中的语言规律、统计特征、艺术风格和逻辑结构,转化为模型参数(即权重矩阵中的数十亿个浮点数)。这些参数本身并不存储原始作品的任何片段,而是对人类知识和创造力的一种高度抽象的数学表征。从这个意义上说,模型提取的是数据中的"思想"和"规律",而非受版权保护的"表达"。这与人类通过阅读大量书籍来提升写作能力,在本质上具有相似性。

然而,这一逻辑在实践中并非无懈可击。现代大模型在某些情况下,确实存在"记忆"(Memorization)训练数据并在输出时"复现"(Regurgitation)的现象。此外,针对特定作家或艺术家进行的定向微调(Fine-tuning),尤其是LoRA(Low-Rank Adaptation)等技术,能够使模型高度模仿特定创作者的风格,其生成的输出可能直接替代原作者的市场。

笔者代理的Lora模型开放平台责任案(浙江法院2024年知识产权保护典型案例),正是这一问题的典型呈现。该案中,平台允许用户上传特定IP的作品作为LoRA模型的训练样本,并公开发布训练好的模型供他人使用,导致大量模仿该画师风格的作品涌现。法院最终认定,在LoRA模型训练、发布及使用过程中再现在先作品独创性表达的行为构成侵权。

这一案件揭示了一个重要的技术法律边界:通用大模型的预训练与针对特定权利人的定向微调,在法律评价上应当区别对待。 前者更接近于"铸剑",后者则更接近于"仿剑",甚至可能构成"伪剑"。白宫政策将裁量权交给法院,也许同样是为了在个案中对这种技术差异进行精细化的法律区分。

四、全球视野:德国法院的路径分歧

就在美国白宫试图通过政策定调为AI产业松绑的同时,大洋彼岸的欧洲却传来了截然不同的司法回声。

2025年11月,德国慕尼黑第一地区法院(Landgericht München I)在GEMA(德国音乐权利人协会)诉OpenAI一案中作出了一项具有里程碑意义的判决。该案的核心争议在于,ChatGPT在接收到简单提示词(如"某某歌曲的歌词是什么")时,能够准确输出受版权保护的歌词。

慕尼黑法院的判决逻辑堪称对AI企业的一记"当头棒喝":

"记忆"即"复制":法院认为,模型能够通过提示词输出歌词,证明这些歌词被"记忆"(Memorization)在模型参数中。尽管这种记忆是以概率值的形式分布在参数中,且只能通过提示词间接感知,但这已经构成了德国版权法意义上的"复制"(Reproduction)。

TDM例外不适用:法院明确排除了欧盟《数字单一市场版权指令》(CDSMD)中关于文本和数据挖掘(TDM)例外的适用。法院指出,TDM例外的初衷是允许为了提取抽象信息而进行的"准备性复制",但OpenAI不仅提取了信息,还将歌词本身"整合"进了模型参数中,这超出了TDM的范畴,直接损害了权利人的经济利益。

输出构成"向公众传播":法院进一步认定,ChatGPT输出歌词的行为构成了未经授权的"向公众传播",且不能适用"戏仿"(Pastiche)等例外,因为AI模型缺乏能够进行艺术表达的"人格"。

慕尼黑法院的判决,与美国法院在Anthropic案中倾向于认可"转换性使用"的逻辑形成了鲜明对比。它直接挑战了AI产业界普遍主张的"模型不存储数据,只学习规律"的技术叙事,将"记忆"等同于"复制",从而在根本上动摇了AI训练的合法性基础。

这一判决凸显了全球主要法域在AI训练版权问题上正在形成的三种截然不同的制度路径:

美国路径:司法主导的弹性合理使用。 以白宫政策为代表,选择"政策背书+司法裁量+集体许可探索"的组合路径。优势在于灵活性强,风险在于规则的不确定性。

欧盟路径:立法TDM例外叠加司法严格解释。 欧盟《数字单一市场版权指令》(CDSMD)第4条确立了商业性文本和数据挖掘(TDM)的版权例外,但同时赋予权利人"选择退出"(Opt-out)的权利——只要权利人以机器可读的方式声明保留权利,AI企业即不得使用。2025年8月起正式适用的《欧盟AI法案》第53条进一步要求通用AI模型提供商披露训练数据的版权合规情况,与CDSMD形成双重约束。慕尼黑法院的判决则在此制度框架之外,从司法层面进一步收紧了TDM例外的适用边界,形成立法与司法的叠加压力。

五、制度设计:集体许可机制的破局之道

面对美国"合理使用"的弹性与欧洲"严格复制权"的刚性,AI产业与创作者之间的矛盾似乎陷入了死结。如果AI的繁荣是建立在"教会徒弟、饿死师傅"的基础之上,那么这种繁荣注定是不可持续的。创作者的枯竭,最终也将成为AI产业的枯竭。

白宫政策框架的精妙之处在于,它在支持"合理使用"的同时,也建议国会探索"集体许可机制"(Collective Licensing Frameworks),并考虑给予反垄断豁免,允许权利人集体与AI企业进行谈判。

这是一个颇具参考价值的制度设计,其核心逻辑是将版权保护的重心,从"禁止权"转向"获酬权"。

面对海量的训练数据和分散的权利人,传统的"一对一"授权模式已经彻底失效。慕尼黑法院的判决虽然保护了权利人,但如果严格执行,可能会导致欧洲AI产业的停滞。集体许可机制通过由代表权利人的集体管理组织(如GEMA、ASCAP等)与AI开发者进行统一谈判和授权,既能大幅降低AI企业的交易成本,又能确保创作者获得合理的经济补偿。

值得关注的是,反垄断豁免的设计同样意味深长。如果没有这一豁免,分散的权利人若联合起来与AI企业谈判,可能面临反垄断法的挑战。白宫的这一建议,实际上是在为权利人的集体行动提供法律保障,以平衡其在谈判中相对于资本雄厚的AI企业的弱势地位。

当然,集体许可机制也面临诸多挑战:如何确定合理的许可费率?如何在不同类型的权利人之间分配收益?如何处理跨国版权问题?这些都是需要在立法和实践中逐步解决的难题。但无论如何,从"禁止"到"补偿"的制度转型,应该说代表了AI时代版权制度演进的一个积极的方向。

对中国的启示:司法判例和商业实践先行,立法小场景快速跟进

白宫的AI版权政策与慕尼黑法院的判决,为中国提供了两面截然不同的镜子。中国同样面临着AI产业发展与版权保护之间的张力。如何在推动大模型技术自主创新的同时,建立起对创作者合理、可持续的补偿机制,是我国AI立法和司法实践必须面对的核心命题。如果完全照搬欧洲的严格规制,可能会在激烈的国际竞争中错失先机;如果完全放任,则可能摧毁本土的文化创意产业。

笔者认为,中国应在借鉴国际经验的基础上,调集优质司法和行政资源,推动一批典型案例和商业实践(例如集体授权合作案例)的出现,笔者代理的多个AI版权案件表明,中国法院已经开始在个案中积累处理AI版权问题的经验,从"奥特曼AIGC形象侵权案"到"Lora模型开放平台责任案",再到"AI种草首案",这些案件正在逐步摸索中国AI版权的司法规则体系。

当案例累积到一定数量的时候,根据这些案例中呈现出来的共性问题以及解决经验,提炼出小切口场景下的规则,上升成为立法。与此同时,应该让AI领域的立法机制摆脱过去的滞后性特征,建立起一个全新的快速立法、分散立法、小场景立法、快速迭代的机制,不要奢望AI立法毕其功于一役,而是应该积极试错,让规则在产业博弈过程中不断完善。

分享文章
阿来律师 AI分身
AI 分身