随着企业越来越多地采用人工智能解决方案来推动效率和创新,数据安全和隐私问题已成为重中之重。正如斯坦福大学《人工智能时代的数据隐私与保护》(2023 年)白皮书的执行摘要中强调的那样,"数据是所有人工智能系统的基础","人工智能的发展将继续增加开发人员对训练数据的渴求,助长比过去几十年更激烈的数据获取竞赛"。人工智能在带来巨大机遇的同时,也带来了独特的挑战,需要我们从根本上重新考虑数据保护的方法。本文探讨了实施人工智能系统的组织在安全和隐私方面的主要考虑因素,并为在整个人工智能生命周期内保护敏感数据提供了实用指导。
正如斯坦福白皮书《数据保护与隐私:关键概念与监管格局》第 2 章所指出的,人工智能时代的数据管理需要一种方法,考虑到超越单纯技术安全的相互关联的层面。根据执行摘要,有三项关键建议可用于降低人工智能的发展和采用所带来的数据隐私风险:
这些方面需要超越传统 IT 安全实践的特定方法。
正如斯坦福白皮书明确指出的那样,"收集基本不受限制的数据会带来独特的隐私风险,这种风险超出了个人层面--它们合在一起会造成社会危害,而这些危害仅靠行使个人数据权利是无法解决的"。这是执行摘要中最重要的观点之一,要求我们从根本上重新思考数据保护战略。
直接引用斯坦福大学执行摘要中的第一条建议:
实施建议:实施数据分类系统,自动标注敏感项目,并根据敏感程度应用适当的控制措施, 同时预先定义不收集设置。
.png)
根据斯坦福大学执行摘要的第二项建议,整个数据链的透明度和问责制是任何处理数据隐私的监管系统的基础。
白皮书明确指出,有必要 "关注人工智能数据供应链,以改善隐私和数据保护。确保数据集在整个生命周期内的透明度和问责制,必须成为任何解决数据隐私问题的监管系统的目标"。这需要
实施建议:实施数据出处系统,记录人工智能系统训练和运行中使用的数据的整个生命周期。
斯坦福执行摘要的第三条建议指出,需要 "改变个人数据的创建和管理方法"。正如文件中所述,"政策制定者应支持开发新的治理机制和技术基础设施(如数据经纪人和数据授权基础设施),以支持个人数据权利和偏好的行使并使之自动化"。
实施建议:采用或协助制定开放式数据授权标准,实现不同系统和服务之间的互操作性。
人工智能模型本身需要特殊保护:
实施建议:在开发流程中设立 "安全门",要求在模型投入生产前进行安全和隐私验证。
人工智能系统面临独特的攻击载体:
实施建议:实施对抗训练技术,在开发过程中专门使模型暴露于潜在的攻击载体。
不同部门对隐私和安全的要求大相径庭:
在人工智能中实施全面的数据隐私和安全方法需要:
.png)
一家全球性金融机构采用分层方法实施了基于人工智能的欺诈检测系统:
正如斯坦福白皮书的执行摘要中明确指出的那样,"虽然基于全球公认的公平信息做法(FIPs)的现有和拟议的隐私立法对人工智能的发展进行了隐性监管,但不足以解决竞相获取数据以及由此产生的个人和系统性隐私伤害问题"。此外,"即使是包含关于算法决策和其他形式人工智能的明确规定的立法,也没有提供必要的数据治理措施,以对人工智能系统中使用的数据进行有意义的监管"。
在人工智能时代,数据保护和隐私再也不能被视为次要的了。各组织必须遵循白皮书中的三项关键建议:
这些建议的实施意味着我们在人工智能生态系统中构想和管理数据的方式发生了根本性转变。正如斯坦福白皮书中的分析所示,目前的数据收集和使用方式是不可持续的,有可能破坏公众对人工智能系统的信任,同时造成远远超出个人范围的系统性漏洞。
为了应对这些挑战,监管环境已经在发生变化,国际上越来越多地讨论不仅要监管人工智能的结果,还要监管为这些系统提供数据的数据采集过程,这就是证明。然而,仅仅遵守法规是不够的。
采用合乎道德、透明的数据管理方法的组织将在这一新环境中处于更有利的位置,通过用户信任和更强的运营复原力赢得竞争优势。我们面临的挑战是如何平衡技术创新与社会责任,认识到人工智能的真正可持续性取决于其尊重和保护服务对象基本权利的能力。