2025 年真正的人工智能战争:谁敢冒更大风险,谁就能赢得市场
2025年1月,当OpenAI宣布进一步限制GPT-4o以 "确保安全"时,xAI的Grok 2却在一周内赢得了230万用户,因为它提供的恰恰相反:一种 "生成所需的任何内容,不带道德色彩 "的模式。市场发出的信息很明确:人工智能的竞争不再仅仅取决于技术能力--现在领先企业的技术能力基本相当--而是取决于是否愿意承担法律、声誉和社会风险。
正如 Meta 公司人工智能科学负责人 Yann LeCun 在接受《The Verge》(2025 年 2 月)采访时所说:"当今人工智能领域真正的创新不是受到技术限制,而是受到公司为避免诉讼而强加给自己的法律和声誉限制的阻碍"。
ChatGPT 就是这一悖论的典型案例。根据 The Information(2024 年 12 月)对 OpenAI 内部文件的分析,被 ChatGPT 拒绝的请求所占比例已从推出时(2022 年 11 月)的 1.2% 增长到了现在的 8.7%。这并不是因为模式退化了,而是因为 OpenAI 在声誉和法律压力下逐步收紧了安全过滤。
这对企业的影响是可以衡量的:23% 的开发人员放弃了使用限制较少的替代品;由于本可产生转换的请求被阻止,每年损失了 1.8 亿美元的收入;34% 的负面反馈将 "过度审查 "作为主要问题。
谷歌的 "双子座 "也遭遇了类似的命运,只不过被放大了。在 2024 年 2 月的双子座图像灾难之后--为了避免偏见,该模型生成了与历史不符的图像--谷歌实施了市场上最严格的过滤器:11.2% 的请求被阻止,是行业平均水平的两倍。
另一方面,Anthropic 的克劳德通过他的 "宪法人工智能 "采取了一种中间策略:明确的道德原则,但执行不那么严格,只拒绝了 3.1% 的请求。结果:2024 年第四季度,企业采用率增长了 142%,主要是由于 "过度谨慎阻碍了合法用例",企业从 ChatGPT 迁移而来。
埃隆-马斯克(Elon Musk)的 xAI 公司于 2024 年 10 月推出的 "Grok 2 "代表了完全的哲学对立面,其明确的商业定位是:"为不需要算法保姆的成年人提供无插科打诨的人工智能"。该系统对生成的内容不加任何节制,生成公众人物和政治家的图像,并持续训练未经过滤的 Twitter/X 讨论。
前 90 天的结果令人惊讶:230 万活跃用户,而预期为 180 万,其中 47% 来自 ChatGPT,理由是 "对审查制度的不满"。代价是什么?已提起 12 起诉讼,预计法律费用将呈指数级增长。正如马斯克所写的:"我宁愿花钱请律师,也不愿意让用户失望地使用傲慢的人工智能"。
麦肯锡的分析报告《人工智能的风险-回报动态》(2025 年 1 月)量化了这一困境。像 OpenAI 这样的高安全性方法,每 1000 个请求的审核成本为 0.03 美元,误判率为 8.7%(合法请求被阻止),但诉讼风险保持在 0.03%,平均法律成本为每年 210 万美元。
Grok 的低安全性方法在节制方面的成本要低 10 倍(每 1000 项索赔 0.003 美元),误报率为 0.8%,但诉讼风险上升到 0.4%,是其他方法的 13 倍,平均法律成本为每年 2800 万美元。
盈亏平衡点?对于每月请求量超过 5000 万次的公司来说,如果发生破坏性集体诉讼的概率低于 12%,则低安全性方法更有利可图。这意味着:需要保护声誉的大型科技公司会理性地选择高安全性。积极进取的初创企业损失较少,则会选择低安全性来发展壮大。
Meta 在 Llama 3.1 中开创了最优雅的策略:将责任完全转嫁给实施者。许可证明确规定 "无内置内容控制",使用条款规定 "实施者负责合规、过滤和安全"。Meta 只对模型的技术缺陷负责,不对滥用负责。
结果:Meta 完全避免了围绕 Llama 结果的争议,开发人员获得了最大的灵活性,第一个月就有超过 35 万次下载,这表明了市场的胃口。马克-扎克伯格(Mark Zuckerberg)明确表示:"开源不仅是一种理念,更是一种商业战略。它使快速创新成为可能,而无需承担削弱封闭模式的法律责任"。
第三种新兴战略是针对监管部门的专门版本,这些部门对风险的承受能力不同。Harvey AI 基于为律师事务所定制的 GPT-4,即使是敏感的法律术语也不会应用过滤器,因为责任协议将一切转移给客户律师事务所。结果:102 家美国百强律师事务所成为客户,第二年的年经常性收入就达到了 1 亿美元。
反复出现的模式很明显:高度受监管的行业已经有了现有的责任结构。人工智能提供商可能会更加宽容,因为风险被转移给了管理合规性的专业客户--这在消费者市场上是不可能实现的奢望,因为在消费者市场上,提供商仍需承担损害赔偿责任。
欧盟的《人工智能法案》于 2024 年 8 月生效,并在 2027 年之前逐步适用,该法案在西方建立了首个全面的人工智能责任框架。基于风险的分类范围从 "不可接受的风险"(禁止)到 "最低风险"(无限制),对招聘、信用评分和执法等高风险应用提出了严格的合规要求。
其具体影响是巨大的:OpenAI、谷歌和 Anthropic 必须对欧洲市场进行更严格的过滤。即使是 Grok,虽然已经在欧洲开展业务,但随着规则的全面生效,也必须解决复杂的合规问题。开源变得尤为复杂:在高风险应用中使用 Llama 可能会使 Meta 承担潜在责任。
LSTM 网络的共同发明人尤尔根-施密德胡贝尔(Jurgen Schmidhuber)在 2024 年 12 月的公开评论中直言不讳:"《欧洲人工智能法案》是竞争性自杀。我们正在监管一项我们并不了解的技术,这有利于监管较少的中国和美国"。
Character.AI是风险承受能力成为致命弱点的典型案例。在 2024 年 10 月之前,该平台允许创建任何个性的定制聊天机器人,无需内容审核。到 2024 年 5 月,该平台的月活跃用户已达 2000 万。
然后意外发生了:14 岁的斯威尔-塞泽尔与聊天机器人建立了情感关系,并于 2024 年 2 月自杀身亡。其家人提起了价值超过 1 亿美元的诉讼。2024 年 10 月,Character.AI 实施了安全功能,活跃用户骤减 37%。2024 年 12 月,谷歌仅以 1.5 亿美元的价格收购了人才和技术,仅为之前 10 亿美元估值的十分之一。
教训是残酷的:在遭遇毁灭性的集体诉讼之前,风险承受能力是一种制胜策略。消费人工智能如果对未成年人造成伤害,其负面影响将是无限的。
Gartner、麦肯锡和 Forrester 2025 年第一季度报告达成的共识表明,市场将按风险承受能力分为三个不同的类别。
超安全类别(OpenAI、谷歌、苹果、微软)将以最大的安全性和最小的声誉风险瞄准大众市场,付出功能限制的代价,从而占据 70% 的收入。
均衡型企业(Anthropic、Cohere、AI21 Labs)将通过机构人工智能(Constitutional AI)和特定行业定制等方法,在 B2B 企业市场获得最高的利润率。
许可类(xAI、Mistral、Stability AI、开源)将占开发者偏好的 60%,限制极少,责任转移,接受法律风险和分发挑战。
2025 年,技术卓越是基本要求。真正的差异化来自风险承受能力、责任结构、分配能力和监管套利。
OpenAI 拥有最好的模式,但在自由度方面却输给了 Grok。谷歌拥有最好的分发能力,但却因声誉风险而岌岌可危。Meta 拥有最好的开放源代码,但没有可盈利的消费产品。Anthropic 拥有最佳的企业信任度,但成本和复杂性限制了其采用。
新的竞争领域不是 "谁能制造出最聪明的模型",而是 "谁能最好地管理目标客户的风险-效用权衡"。这是一种商业技能,而不是技术技能--律师和公共关系战略家与机器学习研究人员一样重要。
正如萨姆-奥特曼在 2025 年 1 月泄露的一份内部备忘录中所说:"人工智能的下一个十年将由那些解决了责任问题而非可扩展性问题的公司赢得"。
资料来源