Newsletter

监管未被创造的东西:欧洲是否面临技术无关性的风险?

**标题:欧洲人工智能法案--谁监管谁不发展的悖论** **概要:** 欧洲只吸引了全球人工智能投资的十分之一,却声称要主导全球规则。这就是 "布鲁塞尔效应"--通过市场力量在全球范围内实施监管,却不推动创新。人工智能法》的生效时间表一直错开到2027年,但跨国科技公司却采取了创造性的规避策略:援引商业秘密来避免披露训练数据,编制技术上合规但难以理解的摘要,利用自我评估将系统从 "高风险 "降级到 "最低风险",选择管制较松的成员国进行论坛购物。域外版权的悖论:欧盟要求 OpenAI 即使在欧洲以外进行培训也要遵守欧洲法律--这是国际法中从未有过的原则。双重模式 "出现:同一人工智能产品的欧洲有限版本与全球先进版本。真正的风险是:欧洲成为与全球创新隔绝的 "数字堡垒",欧洲公民只能获得低劣的技术。法院在信用评分案中已经驳回了 "商业秘密 "抗辩,但解释上的不确定性仍然很大--"足够详细的摘要 "到底是什么意思?没有人知道。最后一个悬而未决的问题:欧盟是在美国资本主义和中国国家控制之间开辟了一条合乎道德的第三条道路,还是仅仅将官僚主义输出到了一个它无法竞争的领域?目前:在人工智能监管方面处于世界领先地位,在其发展方面处于边缘地位。庞大的计划。
法比奥-劳里亚
Electe‍ 首席执行官兼创始人

欧洲人工智能法:在透明度与公司规避战略之间

欧盟迈出了历史性的一步,世界上第一部关于人工智能的全面立法--《人工智能法》正式生效。这项革命性的法案将欧洲置于人工智能治理的最前沿,它建立了一个基于风险的监管框架,旨在平衡创新与基本权利保护之间的关系。然而,该法规也再次体现了所谓的 "布鲁塞尔效应"。布鲁塞尔效应"即欧盟倾向于通过其市场力量在全球范围内强加其规则,而不一定会推动技术创新。

美国和中国通过大规模的公共和私人投资(2024 年分别占全球投资的 45% 和 30%)引领着人工智能的发展,而欧洲只吸引了全球人工智能投资的 10%。作为回应,欧盟试图通过监管来弥补其技术上的落后,强加的标准最终影响了整个全球生态系统。

核心问题是:欧洲是在创造一个促进负责任创新的环境,还是只是在出口 官僚主义欧洲是在创造促进负责任创新的环境,还是仅仅将官僚主义输出到它无法竞争的行业?

欧洲法规的域外层面

人工智能法》不仅适用于欧洲公司,也适用于那些在欧洲市场运营或其人工智能系统影响欧盟公民的公司。这种域外管辖权在有关 GPAI 模型的规定中尤为明显,该法第 106 条指出,"无论模型培训在哪个司法管辖区进行",供应商都必须尊重欧盟版权。

这种做法受到了一些观察家的强烈批评,他们认为这是欧盟试图将自己的规则强加给不在其境内的公司。批评者认为,这可能会在全球技术生态系统中造成裂痕,企业将被迫为欧洲市场开发不同版本的产品,或为所有市场采用欧洲标准,以避免额外的合规成本。

因此,跨国技术公司处境艰难:忽视欧洲市场不是可行的选择,但遵守《人工智能法》需要大量投资,可能会限制创新空间。雄心勃勃的实施时间表和许多条款在解释上的不确定性进一步加剧了这种影响。

实施时间表和监管框架

人工智能法》于 2024 年 8 月 1 日生效,但其实施将遵循一个交错的时间表:

  • 2025 年 2 月 2 日:禁止涉及不可接受风险的人工智能系统(如政府社会评分)和人工智能扫盲义务生效
  • 2025 年 5 月 2 日:通用人工智能模型 (GPAI) 行为准则定稿截止日期
  • 2025 年 8 月 2 日:通用人工智能模型、治理和报告机构规则的应用
  • 2026 年 8 月 2 日:全面实施关于高风险系统和透明度义务的规定
  • 2027 年 8 月 2 日适用于受产品安全立法管辖的高风险系统的标准

该法规采用基于风险的方法,将人工智能系统分为四类:不可接受的风险(禁止使用)、高风险(有严格要求)、有限风险(有透明度义务)和最低或无风险(自由使用)。这种分类决定了开发商、供应商和用户的具体义务。

新的透明度规定:创新的障碍?

人工智能法》最重要的创新之一涉及透明度义务,旨在解决 "黑箱 "问题。黑箱人工智能系统的 "黑箱 "性质。这些义务包括

  • GPAI 模型提供者有义务公布培训数据的 "足够详细的摘要",以方便版权持有者和其他相关方进行监督
  • 与人类互动的系统需要告知用户他们正在与人工智能系统进行交流
  • 明确标注人工智能生成或修改的内容(如深度伪造)的义务
  • 对高风险系统实施全面的技术文档管理

这些要求虽然旨在保护公民权利,但可能会给公司,尤其是创新型初创企业和中小型企业带来沉重负担。需要详细记录开发过程、培训数据和决策逻辑,可能会减缓创新周期,增加开发成本,使欧洲公司与其他法规不那么严格的地区的竞争对手相比处于劣势。

案例研究:实践中的规避

信用评分和自动决策程序

C-203/22 号案件的判决强调了公司最初是如何抵制透明度要求的。被告是一家电信供应商,辩称披露其信用评分算法的逻辑会泄露商业秘密,损害其竞争优势。6.欧盟法院驳回了这一论点,指出 GDPR 第 22 条规定个人有权获得关于自动决定背后的 "标准和逻辑 "的解释,即使是简化的决定。6.

生成式人工智能与版权规避

根据《人工智能法》的两级体系,大多数生成式人工智能模型属于第一级,需要遵守欧盟版权和训练数据摘要的规定2.为避免版权侵权索赔,OpenAI 等公司已转而使用汇总数据或授权内容,但文件方面的差距依然存在。

对版权的影响:欧洲在全球范围内制定法律

人工智能法》包含具体的版权条款,将欧盟的监管影响力远远扩展到其边界之外。GPAI 模型提供商必须

  • 尊重《数字单一市场指令》(2019/790)规定的保留权利
  • 提供培训所用内容的详细摘要,平衡保护商业秘密的需要和允许版权持有者行使权利的需要

人工智能法》序言 106 规定,供应商必须尊重欧盟版权法,"无论示范培训在哪个司法管辖 区进行"。这种域外方法引起了与版权法属地原则的兼容性问题,并可能造成与其他司法管辖区的监管冲突。

公司战略:逃避还是遵守 "布鲁塞尔效应"?

对于全球科技公司来说,《人工智能法》提供了一个基本的战略选择:是适应 "布鲁塞尔效应",在全球范围内遵守欧洲标准,还是针对不同市场制定差异化方法?目前已经出现了几种战略:

规避和缓解战略

  1. 商业秘密保护:许多公司试图援引《欧盟商业秘密指令》的商业秘密保护来限制信息披露。公司认为,详细披露训练数据或模型架构会暴露专有信息,削弱公司的竞争力。这种做法混淆了《法案》对数据摘要和全面披露的要求。
  2. 以技术复杂性作为辩护理由:现代人工智能系统本身的复杂性为减轻法律责任提供了另一条途径。公司制作的摘要在技术上合规,但过于冗长或充满术语,在形式上满足了法律要求,却无法进行有意义的审查。例如,训练数据摘要可能会列出广泛的数据类别(如 "可公开获得的文本"),而不说明具体的来源、比例或方法。
  3. 自我评估漏洞:《信息安全法案》第 6 条修正案引入了一种自我评估机制,允许开发商在认为风险 "可忽略不计 "的情况下,将其系统从高风险类别中豁免。这一漏洞赋予了公司单方面规避严格合规义务的权力。
  4. 监管论坛购物:《人工智能法》将执法权下放给国家市场监管当局,这可能导致执法严格程度和能力的差异。一些公司正在战略性地将其欧洲业务布局在执法方法较为宽松或执法资源较少的成员国。

双重模式 "是对布鲁塞尔效应的回应

一些大型科技公司正在开发一种 "双重运营模式":

  1. 其人工智能产品的 "欧盟兼容 "版本功能有限,但完全符合《人工智能法》的规定
  2. 在监管较少的市场提供更先进的 "全球 "版本

这种方法虽然成本高昂,但可以在不影响全球创新的情况下保持欧洲市场的存在。然而,这种分散可能导致技术差距的扩大,欧洲用户获得的先进技术不如其他地区的用户。

监管的不确定性是欧洲创新的障碍

欧洲人工智能法案》是人工智能监管的一个转折点,但其复杂性和解释的模糊性造成了不确定的氛围,可能会对该行业的创新和投资产生负面影响。企业面临着多项挑战:

作为商业风险的监管不确定性

不断变化的监管环境给企业带来了巨大风险。对 "足够详细的摘要 "或 "高风险 "系统分类等关键概念的解释仍然模糊不清。这种不确定性可能导致

  1. 无法预测的合规成本:企业必须在无法完全确定最终要求的情况下为合规分配大量资源。
  2. 审慎的市场战略:监管的不确定性可能导致更保守的投资决策和新技术开发的延迟,尤其是在欧洲。
  3. 欧洲数字市场支离破碎:不同成员国对规则的解释不一,有可能造成企业难以驾驭的监管拼凑。
  4. 不对称的全球竞争:欧洲公司可能会发现自己比其他地区的竞争对手受到更严格的限制,从而影响其全球竞争力。

创新差距与技术主权

布鲁塞尔效应 "辩论是欧洲技术主权大背景的一部分。欧盟处于一个艰难的境地,既要促进内部创新,又要监管主要由非欧洲参与者开发的技术。

2024 年,欧洲公司在人工智能领域吸引的投资仅占全球投资的 10%,而美国和中国则凭借大规模公共和私人投资、有利于创新的政策以及获取大数据的途径,在该领域占据主导地位。欧洲在语言、文化和监管方面各自为政,很难产生能够在全球竞争的技术 "冠军"。

批评者认为,欧洲以监管为重点的做法有可能进一步扼杀创新、阻碍投资,而支持者则认为,建立可靠的监管框架实际上可以刺激道德和安全的 "设计 "人工智能的发展,从而创造长期的竞争优势。

结论:没有创新的监管?

人工智能法案》的 "布鲁塞尔效应 "凸显了欧洲技术方法中的一个基本矛盾:通过监管制定全球标准的能力并没有相应的技术创新领导力与之相匹配。这种不对称使人们对这种方法的长期可持续性产生了疑问。

如果欧洲继续对自己没有开发的技术进行监管,就有可能发现自己对技术的依赖性越来越强,在快速发展的全球生态系统中,欧洲的规则可能会变得越来越不重要。此外,非欧洲公司可能会逐渐退出欧洲市场,或在欧洲市场上只提供其产品的有限版本,从而形成一个与全球进步日益隔绝的 "欧洲数字堡垒"。

另一方面,如果欧盟能够在其监管方式与促进创新的有效战略之间取得平衡,它就能在美国资本主义与中国国家控制之间有效地确定一条 "第三条道路",将人权和民主价值观置于技术发展的中心。在法国,Vaste 方案 会这样说

人工智能在欧洲的未来不仅取决于《人工智能法》在保护基本权利方面的有效性,还取决于欧洲是否有能力在监管的同时对创新进行适当投资,并简化监管框架,使其不那么具有压迫性。否则,欧洲有可能陷入自相矛盾的境地:在人工智能监管方面处于世界领先地位,但在其发展和实施方面却处于边缘地位。

参考文献和资料来源

  1. 欧盟委员会。(2024).规定人工智能统一标准的条例(欧盟)2024/1689》。欧盟公报》。
  2. 欧洲人工智能办公室。(2025 年 4 月)。关于 GPAI 模型提供者义务的初步指南》。欧盟委员会。
  3. 欧盟法院。(2025 年 2 月)。C-203/22 Dun & Bradstreet Austria 案的判决》。欧盟法院。
  4. Warso, Z., & Gahntz, M. (2024, December).欧盟人工智能法案如何提高人工智能训练数据的透明度》。 TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024).欧盟人工智能法案和人工智能责任指令中的限制与漏洞》。Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. 欧洲数字权利(EDRi)。(2023 年 9 月)。欧盟立法者必须堵住人工智能法案中的危险漏洞》。 https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. 未来生活研究所。(2025).人工智能法案合规性检查器》。 https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, February).了解人工智能法案及其合规挑战》。Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025).欧盟人工智能法案与版权》。The Journal of World Intellectual Property. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP.(2024 年 7 月)。期待已久的欧盟人工智能法案在欧盟官方公报上公布后成为法律"。 https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

促进业务增长的资源

2025 年 11 月 9 日

监管未被创造的东西:欧洲是否面临技术无关性的风险?

**标题:欧洲人工智能法案--谁监管谁不发展的悖论** **概要:** 欧洲只吸引了全球人工智能投资的十分之一,却声称要主导全球规则。这就是 "布鲁塞尔效应"--通过市场力量在全球范围内实施监管,却不推动创新。人工智能法》的生效时间表一直错开到2027年,但跨国科技公司却采取了创造性的规避策略:援引商业秘密来避免披露训练数据,编制技术上合规但难以理解的摘要,利用自我评估将系统从 "高风险 "降级到 "最低风险",选择管制较松的成员国进行论坛购物。域外版权的悖论:欧盟要求 OpenAI 即使在欧洲以外进行培训也要遵守欧洲法律--这是国际法中从未有过的原则。双重模式 "出现:同一人工智能产品的欧洲有限版本与全球先进版本。真正的风险是:欧洲成为与全球创新隔绝的 "数字堡垒",欧洲公民只能获得低劣的技术。法院在信用评分案中已经驳回了 "商业秘密 "抗辩,但解释上的不确定性仍然很大--"足够详细的摘要 "到底是什么意思?没有人知道。最后一个悬而未决的问题:欧盟是在美国资本主义和中国国家控制之间开辟了一条合乎道德的第三条道路,还是仅仅将官僚主义输出到了一个它无法竞争的领域?目前:在人工智能监管方面处于世界领先地位,在其发展方面处于边缘地位。庞大的计划。
2025 年 11 月 9 日

离群值:数据科学与成功故事的完美结合

数据科学颠覆了这一模式:异常值不再是 "需要消除的错误",而是需要了解的宝贵信息。一个异常值可以完全扭曲线性回归模型--将斜率从 2 变为 10,但消除异常值可能意味着丢失数据集中最重要的信号。机器学习引入了复杂的工具:隔离森林(Isolation Forest)通过建立随机决策树来隔离异常值,局部异常值因子(Local Outlier Factor)分析局部密度,自动编码器(Autoencoders)重建正常数据并报告它们无法重现的数据。有全球性异常值(热带地区气温零下 10 摄氏度)、背景异常值(在贫困街区花费 1,000 欧元)、集体异常值(表明受到攻击的同步尖峰流量网络)。与格拉德威尔相似的是:"10,000 小时定律 "也有争议--保罗-麦卡特尼(Paul McCartney)曾说过 "许多乐队在汉堡演出 10,000 小时都没有成功,理论并非无懈可击"。亚洲数学的成功并非遗传,而是文化:中国的数字系统更直观,水稻种植需要不断改进,而西方农业则需要领土扩张。实际应用:英国银行通过实时异常检测挽回了18%的潜在损失,制造业检测出了人类检查会遗漏的微小缺陷,医疗保健通过85%以上的异常检测灵敏度验证了临床试验数据。最后一课:随着数据科学从消除异常值转向理解异常值,我们必须将非常规职业视为有价值的轨迹,而不是需要纠正的异常值。