人工智能行业正在进行自律,以预测政府监管,打造负责任的技术未来
导言:人工智能治理的新时代
2025 年标志着人工智能治理的一个转折点。在世界各国政府努力跟上技术演进的同时,人工智能行业率先建立了创新的自我监管机制。这不是逃避责任,而是建立一个安全、道德和可持续的人工智能生态系统的积极战略。
目前只有 35% 的公司制定了人工智能治理框架,但 87% 的企业领导者计划到 2025 年实施人工智能道德政策。
人工智能自律:制胜战略而非退路
自律为何是正确的选择
人工智能的自我监管并不是试图逃避责任,而是应对这一技术独特挑战的最有效办法:
适应速度:面对不断变化的新监管活动,人工智能系统的自我管理需要组织和技术控制。公司可以迅速调整其框架,以适应技术创新。
技术专长:谁能比人工智能开发人员和研究人员更了解其技术对道德和安全的影响?
负责任的创新:许多组织选择采用自我管理的方法,以进一步推动与其组织价值观保持一致,并建立声誉经合组织人工智能政策观察门户网站。
全球人工智能自律的支柱
1.经合组织人工智能:政府间协调机构(不是人工智能领域的 W3C)
有必要澄清一个常见的误解。经合组织人工智能并不等同于万维网联盟的人工智能。万维网联盟通过行业专家制定技术标准,而经合组织《人工智能原则》则是首个关于人工智能的政府间标准,由经合组织 47 个法律文书成员通过,在政府间发挥协调作用,而不是由行业制定技术标准。
经合组织设有一个人工智能治理工作组,负责审查《人工智能建议书》,以确保其与快速发展的人工智能创新保持相关性和与时俱进。
2.人工智能伙伴关系:工业自律的先驱
人工智能伙伴关系(PAI)是一个由学术界、民间社会、行业和媒体组织组成的非营利性伙伴关系,旨在为人工智能创造解决方案,推动为人类和社会带来积极成果。
战略演变:该伙伴关系最初是一项全行业的自律活动,但很快就邀请其他利益相关者加入,成为合作伙伴,从而将该倡议转变为一项 "私人共同监管安排"。人工智能伙伴关系对 .... 的回应
具体成果:
- 创建人工智能事件数据库,跟踪人工智能事件
- 人工智能模型安全分发框架和合成媒体道德发展指南人工智能治理趋势:监管、合作和技能需求如何塑造行业 | 世界经济论坛
3.世界经济论坛人工智能治理联盟:协作超级大国
人工智能治理联盟汇集了来自 200 多个组织的 250 多名成员,围绕三个中心工作组开展工作透明、包容的人工智能系统的设计--人工智能治理联盟:
- 安全系统和技术:制定技术保障措施
- 负责任的应用与变革:负责任的人工智能应用
- 弹性治理和监管
会议最后着重强调,在不断发展的技术成熟度和不断变化的监管环境中,行业需要进行自我管理。
案例研究:行动中的自我调节
白宫人工智能自愿承诺
2023 年 7 月 21 日,七家领先的人工智能公司--亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI--与白宫合作,在经合组织人工智能政策观察门户网站(OECD AI Policy Observatory Portal)上自愿做出八项人工智能安全发展承诺。
可衡量的成果:
- 所有公司都会与内部和外部测试人员进行 "红队 "演练,以探究其模型的缺陷和风险经合组织人工智能政策观察门户网站
- 微软发起 "安全未来 "倡议,应对规模不断扩大的网络攻击经合组织人工智能政策观察门户网站
欧洲人工智能公约:先自愿后监管
欧盟委员会发起了《人工智能契约》(AI Pact),这是一项自愿性倡议,旨在支持未来的实施工作,并邀请欧洲及其他地区的人工智能供应商和实施者提前遵守《人工智能法》的主要义务。
自律的竞争优势
1.防止过度监管
积极主动的自我监管可以防止政府监管过度,从而扼杀创新。一年前,美国启动了 "星际之门计划"(Project Stargate),这是一项耗资 5000 亿美元的人工智能基础设施计划,人工智能公司承诺进行自我监管。麻省理工科技评论》(MIT Technology Review)认为,这表明了一种对行业友好的态度。
2.建立公众信任
88%的使用生成式人工智能的中等市场公司表示,人工智能对其组织产生的积极影响超过了预期工作场所的人工智能:麦肯锡 2025 年报告,展示了负责任的自律如何建立信任。
3.全球竞争优势
大型人工智能公司一直反对西方国家以同情的态度进行监管,但却受到许多其他国家领导人的热烈欢迎美国的人工智能立法:2025 年概览 - SIG。
公司实施框架
步骤 1:人工智能风险评估
组织可绘制人工智能用例图并评估相关风险等级,为高影响模型建立内部审查委员会。
步骤 2:采用公认的框架
各组织可选择利用自愿性方法和框架,如美国 NIST 的人工智能风险管理框架、新加坡的人工智能验证框架和英国经合组织人工智能政策观察门户的检查人工智能安全研究所平台。
步骤 3:合作治理
该框架强调需要提高透明度、与人类价值观保持一致、可验证的诚信和事后审计人工智能治理联盟|世界经济论坛对人工智能未来的思考。
人工智能自律的未来
自动化技术控制
人工智能系统的自我管理将涉及组织控制,以及越来越多的自动化技术控制生成性人工智能时代的治理:2024 年弹性政策和监管的 360° 方法 | 世界经济论坛。随着技术发展到需要实时控制的速度和智能程度,自动化将是必要的。
多方合作
人工智能治理联盟呼吁政府、私营部门和当地社区开展合作,以确保人工智能的未来惠及每个人。
结论:未来的典范
2025 年的人工智能自我监管是一种创新的技术治理模式,它将以下方面结合在一起:
- 主动承担责任,而不是对法规作出反应
- 制定适当技术标准的部门专门知识
- 全球合作应对共同挑战
- 无官僚障碍的持续创新
通过促进跨部门合作,确保为未来的技术变革做好准备,并促进国际合作,我们可以建立一个既有弹性又有适应性的治理结构世界经济论坛发起人工智能治理联盟,专注于负责任的新一代人工智能 > 新闻稿 | 世界经济论坛
常见问题:人工智能自律
1.什么是人工智能自律?
人工智能自律是一种积极主动的方法,行业内的公司和组织自愿制定标准、原则和实践,以确保负责任地开发和实施人工智能,预计并防止出现需要政府严格监管的情况。
2.为什么自我监管优于政府监管?
自我监管具有更大的灵活性,能更快地适应技术创新,并能利用开发人员的技术专长。它还能防止过度监管,以免扼杀创新,并保持行业的全球竞争力。
3.有哪些主要的人工智能自律机构?
主要包括
- 人工智能伙伴关系(PAI):多方利益相关者最佳做法联盟
- 人工智能治理联盟(世界经济论坛):250 多名负责任治理成员
- 经合组织人工智能原则:47 个国家的政府间标准
- 白宫人工智能承诺:大型科技公司的自愿承诺
4.自律只是 "道德洗涤 "吗?
不,证据显示了具体的成果:创建人工智能事件数据库、开发合成媒体框架、实施红队实践以及对网络安全进行大量投资。这些都是实实在在的行动,而不仅仅是声明。
5.我的公司如何实施人工智能自律?
从这里开始
- 使用案例中的人工智能风险评估
- 采用公认的框架(NIST AI RMF、AI Verify)
- 创建内部人工智能治理委员会
- 参与工业合作倡议
- 实施技术和组织控制
6.自我监管在全球是否有效?
是的,经合组织和人工智能合作伙伴关系等组织制定的标准已在全球范围内采用。不过,地区之间存在差异:欧盟倾向于正式监管,而印度等国家则拥护与行业合作的自我监管方法。
7.自我监管有哪些风险?
主要风险包括
- 主导公司可能 "攫取监管权
- 缺乏民主监督
- 标准可能不如政府标准严格
- 需要独立的执法机制
8.未来人工智能自我监管将如何发展?
未来,技术控制将越来越自动化,多方利益相关者将加强合作,全球标准将更加统一,主动的自我监管和支持性的政府监管之间将实现动态平衡。
资料来源和有用链接:
本文基于广泛的研究和 2025 年的权威资料来源。


