法比奥-劳里亚

创意科学怪人:人工智能与版权之间的法律之争

2025 年 8 月 4 日
在社交媒体上分享

📧 **更新的时事通讯文章**
*本文最初发表在我们的每周时事通讯上,随后根据 2025 年的发展情况进行了更新,包括 Bartz 诉 Anthropic、Kadrey 诉 Meta、迪斯尼诉 Midjourney 和汤森路透诉 Ross Intelligence 等具有里程碑意义的判决。

**最近更新:** [2025年7月]。

人工智能与版权法的交叉已成为现代法律领域中最复杂、发展最快的领域之一。2025 年标志着一个历史性转折点,首批实质性裁决从版权角度重新定义了如何处理人工智能生成的内容。

2025 年的历史判决:支离破碎的法理学

毁灭性的先例:汤森路透诉罗斯情报公司案

2025 年 2 月 11 日是人工智能法律的分水岭,斯蒂芬诺斯-比巴斯法官首次做出裁决,断然拒绝在人工智能培训中为合理使用辩护。

汤森路透企业中心有限公司诉 Ross Intelligence 公司一案中,法院依法裁定,使用受版权保护的标题注释来训练人工智能系统不构成合理使用。

判决的核心内容是:Ross Intelligence 公司使用了 Westlaw 的标题注释(汤森路透专有的法律摘要)来训练自己的竞争性人工智能搜索引擎。法院强调,Ross 创造的是对 Westlaw 的直接 "市场替代品",对合理使用具有决定性的不利影响。

正如比巴斯法官所写:"公众无权使用汤森路透的法律分析。版权鼓励人们开发对社会有帮助的东西,比如好的法律研究工具"。

2025 年 6 月的双重判决:一个法律悖论

2025 年 6 月,仅相隔两天,加利福尼亚州的两家联邦法院就做出了看似相互矛盾的裁决,震动了人工智能行业。

巴茨诉人类学案(2025 年 6 月 23 日):威廉-阿尔苏普法官裁定克劳德对合法购买的书籍进行培训构成合理使用,称这一过程具有"惊人的变革性"。然而,他谴责 Anthropic 从 LibGen 和 Pirate Library Mirror 等盗版网站下载了 700 多万册图书,裁定这种非法获取不受合理使用的保护。这一裁决做出了一个重要的区分:培训可以是合理使用,但只有在材料是合法获得的情况下才可以。

Kadrey诉Meta案(2025年6月25日):文斯-查布里亚(Vince Chhabria)法官裁定,LLaMA对作者书籍的培训构成合理使用,但理由与Anthropic案不同。作者们(包括Sarah Silverman 和 Ta-Nehisi Coates)未能证明 Meta 的人工智能实际上在市场上取代了他们的作品或造成了具体的经济损失。Chhabria 法官在判决中含蓄地批评了 Alsup 法官对人工智能 "变革 "性质的强调,转而强调关键因素应是实际经济损害的证据。

好莱坞参战:迪士尼和环球影业诉 Midjourney 公司

2025 年 6 月,好莱坞巨头也加入了人工智能版权法律战。迪士尼和环球影业对 Midjourney 提起诉讼,这是好莱坞巨头首次起诉人工智能公司侵犯版权。

巨人之重:这起长达 110 页的诉讼指控 Midjourney 公司窃取了 "无数 "版权作品来训练其软件,其中包括达斯-维达、荷马-辛普森和史莱克等标志性人物。据《时代》周刊报道,此案的重要性在于迪士尼和环球影业的规模、影响力和资源:"这些美国经济的支柱越是卷入这场斗争,就越难忽视这里的简单事实"。

虚拟发行机":诉讼将 Midjourney 描述为 "虚拟发行机,无休止地生成未经授权的迪斯尼和环球公司作品的复制品"。Midjourney 拥有 2000 多万注册用户,到 2024 年收入将达到 3 亿美元,是世界上最大的人工智能图像生成器之一。

安徒生对稳定人工智能:继续演变

由莎拉-安德森(Sarah Andersen)领导的艺术家团体继续取得重大胜利,威廉-奥瑞克(William Orrick)法官允许他们对 Stability AI 和 Midjourney 等公司提出版权侵权指控。艺术家们指控这些公司未经同意或赔偿,在训练数据集中非法存储了他们的艺术作品副本。

根本矛盾:这一案例凸显了生成式人工智能的内在悖论:模型旨在模仿人类的创造力,却只能通过消耗人类作品来实现。

Adobe 道德方法:许可与合理使用

当其他科技巨头面临版权侵权诉讼时,Adobe 却试图通过其 Firefly 人工智能将自己定位为 "道德 "替代品。Adobe围绕 "商业上安全的人工智能 "这一概念制定了营销策略和产品差异化,主要使用从 Adobe Stock 和公共领域内容获得授权的图像进行训练。

道德承诺:Adobe 将 Firefly 与 Midjourney 和 DALL-E 等竞争对手区分开来,强调其模型仅在授权内容上进行训练,避免了有争议的互联网搜刮。公司还采用了 "内容证书 "等技术,允许创作者在其作品上添加 "请勿训练 "标签。

复杂的现实:然而,彭博社在 2024 年 4 月披露的信息显示,在 Firefly 的训练数据集中,约有 5% 的图像是由包括 Midjourney 在内的竞争人工智能生成的。在 Adobe Stock 中,有 5700 万张图片被明确标注为人工智能生成,占总数据库的 14%。

Adobe的辩护:Adobe 回应说,Adobe Stock 中的所有图片,包括人工智能生成的图片,都经过了 "严格的审核程序",以确保不包含知识产权、品牌或可识别的人物。该公司认为,与使用完全未授权数据的竞争对手相比,这种做法更符合道德规范。

对最终用户的好处: Adobe 的做法使用户 在使用 Firefly 生成的内容时,可以减少法律风险或版权侵权。即使在出现矛盾和灰色地带的情况下,Adobe对透明度、内容节制和尊重艺术家权利的承诺也是一种附加价值。

2025 年的法理分裂

2025 年揭示了一个严重分歧的判例,反映了将 20 世纪法律应用于 21 世纪技术的内在复杂性。

合法获取范式:所有判决都同意一项基本原则:区分合法和非法获取培训材料。即使随后的使用可能是合理使用,下载盗版材料仍然是非法的,并可能导致单独的责任。

第四个因素之争:判决将合理使用的第四个因素(市场影响)确定为新的法律战场。Thomson Reuters 因证明了明显的市场替代性而获胜,而 Bartz 和 Kadrey 案则未能证明具体的经济损害。

probatio diabolica 问题:出现了一个程序性悖论:当人工智能系统的影响广泛且难以量化时,作者如何证明人工智能系统造成的市场损害?我们正在目睹一个系统的出现,在这个系统中,保护取决于用数学方法证明直觉上显而易见的事情的能力。

面对数字深渊的演员

人工智能时代的版权危机尤其影响到表演领域,因为表演者的身份是表演行业的核心。克隆肖像、声音和表演风格的可能性正在迅速改变 "表演 "的概念,使其从一种独特的创造性行为转变为一种潜在的可复制模板。

诠释的消解:当演员可以通过数字技术再现时,诠释艺术还剩下什么?电影制片厂已经展示了 "复活 "已故演员和用数字技术处理现有演绎的能力。问题的关键不在于技术上是否可行,而在于它是否保留了使表演具有意义的精髓。

这里 "的先例:电影 "这里 "使用了汤姆-汉克斯和罗宾-怀特的全数字再现,作为主演,这是经授权使用的典范。制片方征得了相关演员的明确同意,并向其支付了版权费用,从而开创了自愿使用的商业先例。这突出表明,问题不一定在于技术本身,而在于其作品和形象被使用的艺术家的同意和补偿。

迪斯尼在数字复制方面的议程:值得注意的是,迪斯尼也是 "无假货法案"的支持者之一,该法案是一项旨在保护声音和肖像演员免受未经授权的人工智能复制的联邦法律提案。这表明了一种协调的战略:在打击未经授权使用现有知识产权的同时,保护演员免遭未经授权的数字复制。

反向价值悖论:一种奇特的经济现象已经出现:最著名的演员拥有成熟的职业生涯(因此有大量素材可用于人工智能训练),但矛盾的是,他们最容易被算法替代。他们的成功使他们很容易成为未经授权的克隆对象,从而颠覆了传统的艺术生涯价值曲线。

欧洲作为监管制衡:人工智能法案在行动

当美国在合理使用的迷宫中徘徊时,欧洲却选择了一种截然不同的方法,那就是于 2024 年 8 月生效的《人工智能法》,该法案目前正在积极实施中。

强制性透明度革命:《人工智能法》要求通用人工智能模型的提供者公布用于训练的数据的 "足够详细的摘要",包括受版权保护的材料。2025 年 1 月,欧盟委员会发布了一个模板,以协助提供商准备所需的摘要。

人工智能法的支柱

  • 透明度:公司必须披露培训数据的来源
  • 尊重版权:无论培训在哪里进行,都有义务尊重欧盟版权法
  • 选择退出:尊重表示拒绝的权利人的偏好

域外效力:《人工智能法》适用于将人工智能模型投放到欧盟市场的任何供应商,"无论与版权相关的行为发生在哪个司法管辖区"。这就与美国的合理使用判例产生了潜在冲突。

美国版权局新报告(2025 年)

2025 年 1 月,美国版权局发布了人工智能报告的第二部分,对人工智能生成作品的可保护性做出了重要澄清。

经确认的基本原则

  • 只有由人类作者确定表达元素的作品才能受到版权保护
  • 仅提供提示不足以获得版权保护
  • 人工智能协助创作不会自动阻止可保护性
  • 完全由人工智能生成的作品无法获得版权

重温原创神话:报告证实了 "原创 "这一概念在现代版权法中的人为性。艺术家从成千上万的人工智能输出中挑选作品,与程序员从成千上万的算法中挑选作品,两者之间究竟有何区别?这种法律上的区别似乎更多的是意识形态上的,而非实际意义上的,但它在决定什么可以获得版权方面仍然至关重要。

国际视角:全球分歧

中国北京一家法院于 2023 年 11 月承认了对人工智能生成的图像的版权保护,前提是该图像必须具有独创性并反映人类的智力成果。这与美国更为严格的做法形成鲜明对比。

捷克共和国:2024,捷克一家法院做出了欧洲首个关于人工智能生成版权的裁决,拒绝为通过提示创建的图像提供保护,这与美国版权局的立场一致。

全球立法的虚伪:有趣的是,西方法律体系拒绝为人工智能生成的作品授予权利,同时却允许人类作品被这些系统 "吞噬"。我们正在目睹一种双重标准:人类作品在创作时被视为神圣,但在被人工智能吞噬时则是可有可无的。

合理使用辩论:新领域

人工智能公司越来越依赖于 "变革性使用 "的论点,但 2025 年的判决表明了这一策略的局限性。

变革的假象:"变革性使用 "的论点被证明是一种方便的法律虚构,当它被应用于工业规模时。事实上,人工智能并没有 "改变 "作品,而是对作品进行消化和再利用。正如汤姆森路透社案所示,当商业使用明显而直接时,法官开始理解这种区别,但仍难以明确为什么人类从受保护作品中学习是可以接受的,而人工学习则不可以。

新的决定性因素

  1. 合法与非法获取培训材料
  2. 直接市场替代与创造新市场
  3. 经济损失的具体证据与理论损失的对比

最终用户和开发商的责任风险

安达信案裁定,如果人工智能的输出结果与训练数据过于相似,最终用户可能要承担责任,但 2025 年的判决使这一情况变得更加复杂。

不可能的知识负担》更新:最终用户如何才能知道包含数十亿张图像的训练数据集的内容,尤其是当人工智能法案现在要求透明,但美国供应商可能不遵守时?我们正在创建一个系统,在不一致的跨境监管环境中,普通用户有可能因其无法预见或避免的违规行为而受到处罚。

:《弗兰肯斯坦悖论》更新:就像弗兰肯斯坦博士一样--他是创造者而不是被创造者,这是没读过《玛丽-雪莱》的人常犯的错误--我们发现自己陷入了一个被放大的悖论:使用人工智能的用户被视为对侵权行为负责的 "怪物",而真正的 "医生 "却往往逃脱了法律后果,他们在他人的数据上创建并训练了这些系统。2025 年的判决表明,即使公司要承担责任,往往也只是对最恶劣的方面(如《Anthropic》的盗版),而不是对受保护资料的系统性使用。我们对数字时代责任的解释也进一步证明了文化的肤浅性。

对行业的影响和未来方向

2025 个案例加速了对授权培训数据集的需求。目前,各大媒体公司正在就收入共享协议进行谈判,这与音乐行业的 ASCAP/BMI 模式如出一辙。

结局的异化得到证实:矛盾的是,为保护个人创作者而提起的诉讼正有利于有能力承担复杂许可协议的大型结构化公司。2025 年的判决表明,证明具体经济损失的能力--往往超出个人创作者的能力范围--已成为法律胜诉的关键。然而,迪斯尼和环球公司的加入改变了这一态势:这些巨头既有资源来维持漫长的法律战,又有影响力来赢得媒体和政治关注。

不断扩大的授权市场:汤森路透、盖蒂图片公司和其他大型内容持有者目前正积极将其档案作为训练数据进行货币化,从而创造了一个可能将小型独立创作者排除在外的新市场。迪斯尼和环球的加入很可能会加速这一趋势,电影业一旦在法律上得到澄清,很可能会 "有效地加速使用建立在授权内容基础上的人工智能模型"

Adobe 公司的教训:Adobe 公司的案例表明,即使是最看似合乎道德的方法也可能存在缺陷。不过,它代表了在人工智能创新与尊重创作者权利之间取得平衡的真正尝试。正如 Adobe 所言:"我们的目标是构建生成性人工智能,让创作者能够将自己的才能货币化"--这一原则与许多竞争对手的 "先取后求 "做法形成了鲜明对比。

Adobe vs. 竞争对手模式:当 Anthropic 和 Meta 等公司在法庭上为自己使用盗版内容的行为辩护时,Adobe 至少尝试建立了一个许可框架。这种方法虽然不完善,但可以作为未来要求透明度和对创作者进行补偿的法规的范本。

结论:驾驭 2025 年后的不确定性

后 2025 时代人类创造力的未来当前的法律之争不仅涉及知识产权,还涉及人工智能时代人类创造力的根本意义。2025 年的裁决试图在人类创造力和人工智能创造力之间保留越来越人为的区别,但也揭示了这种方法的实际局限性。

碎片化是新常态:2025 年的判例并不清晰,而是反映了根本不同的方法。在某些原则(盗版的非法性、市场影响的重要性)上的趋同与在根本问题上的严重分歧并存。

真正的新问题:2025 年的裁决表明,问题不再是人工智能是否会侵犯版权,而是各国的法律体系能否迅速制定出连贯的框架,以管理这项指数级发展的技术。欧洲人工智能法案》和美国判例正在制定互不兼容的标准,这可能会分裂全球人工智能市场。迪士尼的加入--凭借其游说能力和政治影响力--可能会成为美国联邦立法更加明确的催化剂。

迪斯尼的教训:正如一位业内专家在谈到迪斯尼-环球公司案时所说:"这不会是好莱坞试图关闭生成式人工智能。这是关于补偿的问题"。这一区别至关重要:它不是要阻止创新,而是要确保创作者的工作得到补偿。

对比模式:2025 年强调了三种根本不同的方法:一方面,迪斯尼利用法院保护高价值的知识产权,Adobe 则试图建立一个合乎道德(尽管并不完美)的生态系统;另一方面,公司宁愿冒着被起诉的风险,也不愿限制数据的访问;最后,欧洲通过《人工智能法案》强制规定了透明度。这种对比可能将决定人工智能监管的未来。

当我们试图将 20 世纪的法律应用于 21 世纪的技术时,我们可能会发现自己所捍卫的制度不仅不再保护其声称要保护的利益,而且还在积极地阻碍不容易纳入现有类别的新的创造性表达形式的出现。2025 年的情况表明,人类创造力和人工创造力的共存之路将比最初设想的更加复杂和矛盾。

注:本更新文章反映了 2025 年人工智能-版权领域的重大进展,包括首批实质性判决和《欧洲人工智能法》的实施。有关未决案件的进一步更新,请参见 人工智能版权案件的完整跟踪。法律环境仍在快速演变,需要不断监测监管和判例法的发展。

其他资源:

法比奥-劳里亚

首席执行官兼创始人 |Electe

作为Electe 公司的首席执行官,我帮助中小企业做出数据驱动型决策。我撰写有关商业领域人工智能的文章。

最受欢迎
注册获取最新消息

在您的收件箱中接收每周新闻和见解
。不要错过

谢谢!您提交的材料已收到!
哎呀!提交表格时出了点问题。