人工智能行业正在进行自律,以预测政府监管,打造负责任的技术未来
2025 年标志着人工智能治理的一个转折点。在世界各国政府努力跟上技术演进的同时,人工智能行业率先建立了创新的自我监管机制。这不是逃避责任,而是建立一个安全、道德和可持续的人工智能生态系统的积极战略。
目前只有 35% 的公司制定了人工智能治理框架,但 87% 的企业领导者计划到 2025 年实施人工智能道德政策。
人工智能的自我监管并不是试图逃避责任,而是应对这一技术独特挑战的最有效办法:
适应速度:面对不断变化的新监管活动,人工智能系统的自我管理需要组织和技术控制。公司可以迅速调整其框架,以适应技术创新。
技术专长:谁能比人工智能开发人员和研究人员更了解其技术对道德和安全的影响?
负责任的创新:许多组织选择采用自我管理的方法,以进一步推动与其组织价值观保持一致,并建立声誉经合组织人工智能政策观察门户网站。
有必要澄清一个常见的误解。经合组织人工智能并不等同于万维网联盟的人工智能。万维网联盟通过行业专家制定技术标准,而经合组织《人工智能原则》则是首个关于人工智能的政府间标准,由经合组织 47 个法律文书成员通过,在政府间发挥协调作用,而不是由行业制定技术标准。
经合组织设有一个人工智能治理工作组,负责审查《人工智能建议书》,以确保其与快速发展的人工智能创新保持相关性和与时俱进。
人工智能伙伴关系(PAI)是一个由学术界、民间社会、行业和媒体组织组成的非营利性伙伴关系,旨在为人工智能创造解决方案,推动为人类和社会带来积极成果。
战略演变:该伙伴关系最初是一项全行业的自律活动,但很快就邀请其他利益相关者加入,成为合作伙伴,从而将该倡议转变为一项 "私人共同监管安排"。人工智能伙伴关系对 .... 的回应
具体成果:
人工智能治理联盟汇集了来自 200 多个组织的 250 多名成员,围绕三个中心工作组开展工作透明、包容的人工智能系统的设计--人工智能治理联盟:
会议最后着重强调,在不断发展的技术成熟度和不断变化的监管环境中,行业需要进行自我管理。
2023 年 7 月 21 日,七家领先的人工智能公司--亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI--与白宫合作,在经合组织人工智能政策观察门户网站(OECD AI Policy Observatory Portal)上自愿做出八项人工智能安全发展承诺。
可衡量的成果:
欧盟委员会发起了《人工智能契约》(AI Pact),这是一项自愿性倡议,旨在支持未来的实施工作,并邀请欧洲及其他地区的人工智能供应商和实施者提前遵守《人工智能法》的主要义务。
积极主动的自我监管可以防止政府监管过度,从而扼杀创新。一年前,美国启动了 "星际之门计划"(Project Stargate),这是一项耗资 5000 亿美元的人工智能基础设施计划,人工智能公司承诺进行自我监管。麻省理工科技评论》(MIT Technology Review)认为,这表明了一种对行业友好的态度。
88%的使用生成式人工智能的中等市场公司表示,人工智能对其组织产生的积极影响超过了预期工作场所的人工智能:麦肯锡 2025 年报告,展示了负责任的自律如何建立信任。
大型人工智能公司一直反对西方国家以同情的态度进行监管,但却受到许多其他国家领导人的热烈欢迎美国的人工智能立法:2025 年概览 - SIG。
组织可绘制人工智能用例图并评估相关风险等级,为高影响模型建立内部审查委员会。
各组织可选择利用自愿性方法和框架,如美国 NIST 的人工智能风险管理框架、新加坡的人工智能验证框架和英国经合组织人工智能政策观察门户的检查人工智能安全研究所平台。
该框架强调需要提高透明度、与人类价值观保持一致、可验证的诚信和事后审计人工智能治理联盟|世界经济论坛对人工智能未来的思考。
人工智能系统的自我管理将涉及组织控制,以及越来越多的自动化技术控制生成性人工智能时代的治理:2024 年弹性政策和监管的 360° 方法 | 世界经济论坛。随着技术发展到需要实时控制的速度和智能程度,自动化将是必要的。
人工智能治理联盟呼吁政府、私营部门和当地社区开展合作,以确保人工智能的未来惠及每个人。
2025 年的人工智能自我监管是一种创新的技术治理模式,它将以下方面结合在一起:
通过促进跨部门合作,确保为未来的技术变革做好准备,并促进国际合作,我们可以建立一个既有弹性又有适应性的治理结构世界经济论坛发起人工智能治理联盟,专注于负责任的新一代人工智能 > 新闻稿 | 世界经济论坛
人工智能自律是一种积极主动的方法,行业内的公司和组织自愿制定标准、原则和实践,以确保负责任地开发和实施人工智能,预计并防止出现需要政府严格监管的情况。
自我监管具有更大的灵活性,能更快地适应技术创新,并能利用开发人员的技术专长。它还能防止过度监管,以免扼杀创新,并保持行业的全球竞争力。
主要包括
不,证据显示了具体的成果:创建人工智能事件数据库、开发合成媒体框架、实施红队实践以及对网络安全进行大量投资。这些都是实实在在的行动,而不仅仅是声明。
从这里开始
是的,经合组织和人工智能合作伙伴关系等组织制定的标准已在全球范围内采用。不过,地区之间存在差异:欧盟倾向于正式监管,而印度等国家则拥护与行业合作的自我监管方法。
主要风险包括
未来,技术控制将越来越自动化,多方利益相关者将加强合作,全球标准将更加统一,主动的自我监管和支持性的政府监管之间将实现动态平衡。
资料来源和有用链接:
本文基于广泛的研究和 2025 年的权威资料来源。