2025年9月,OpenAI的一项披露震惊了全球科技界:ChatGPT会主动监控用户对话,并将潜在犯罪内容上报执法部门。
这条消息几乎偶然出现在公司博客的一篇帖子中,透露当自动系统检测到用户"计划伤害他人"时,相关对话会被转至专门处理渠道,由一支接受过使用政策培训的小型团队进行审查。 若人工审核员判定存在"对他人造成严重身体伤害的迫在眉睫的威胁",该案件将被移交执法部门¹。

ChatGPT诚挚邀请您分享内心最深处的想法。别担心,一切都保密……差不多吧。
资料来源
当我们与心理医生、律师、医生或神父交谈时,我们的言语受到一项成熟的法律机制保护:职业保密原则。这一植根于数世纪法律传统的原则规定,某些谈话内容具有不可侵犯性,即使面对刑事调查亦然。
传统职业保密制度的特征:
与普遍认知相反,职业保密义务并非绝对。不同职业类别存在明确界定的例外情况:
对于律师(《律师职业道德守则》第28条):在以下必要情况下允许披露:
关键案例:若客户向律师表明其意图实施谋杀,在捍卫辩护权与保护生命权之间,后者应优先于前者,律师则不受保密义务约束²。
对于心理学家(《职业道德守则》第13条):保密义务可在下列情况下被打破:
重要区别:私人心理医生比公立心理医生拥有更大的自由裁量权,后者作为公职人员需承担更严格的举报义务³。
资料来源
ChatGPT 运作于一个完全不同的灰色地带:
缺乏法律特权:与人工智能的对话不受任何法律保护。正如OpenAI首席执行官山姆·阿尔特曼所承认的:"如果你向治疗师、律师或医生倾诉这些问题,这些对话享有法律特权。 存在医患保密、法律保密等各种保密机制。而当你与ChatGPT对话时,我们尚未解决这个问题"²。
自动化流程:与人类专业人士逐案评估不同,ChatGPT通过算法识别"问题"内容,从而在初始筛选阶段就排除了专业人类判断的介入。
资料来源
这种情况造成了一个令人担忧的悖论。数百万用户将ChatGPT当作数字知己,向它倾诉内心最私密的思绪、疑虑、恐惧,甚至连犯罪幻想都毫无保留地倾吐——这些内容他们绝不会与真人分享。正如山姆·阿尔特曼所言:"人们向ChatGPT倾诉生活中最私密的事情。人们——尤其是年轻人——将其当作心理治疗师和人生导师来使用"⁴。
犯罪性自我审查的风险:意识到对话可能被监听,反而可能导致:
批评者强调的一个关键问题是最终决策者的能力。
人类专业人士具备:
ChatGPT系统通过以下方式运行:
问题示例:算法如何区分以下情况:
资料来源
资料来源
OpenAI的承认与其先前立场形成尖锐矛盾。该公司曾以保护隐私为由,在诉讼中坚决抵制用户数据披露要求。在针对《纽约时报》的诉讼中,OpenAI曾为保护用户隐私而强烈反对披露聊天记录⁴。
讽刺的是:OpenAI在法庭上捍卫用户隐私,却同时承认监控用户数据并与外部机构共享。
法院命令要求OpenAI无限期保存所有ChatGPT日志(包括私人聊天记录和API数据),使情况进一步复杂化。这意味着用户认为是临时性的对话现在已被永久存档⁵。
资料来源
正如萨姆·阿尔特曼所建议的,可能需要建立一种"人工智能特权"的概念——即类似于传统专业人士所享有的法律保护。然而,这引发了复杂的问题:
可行的监管选项:
"分隔式"人工智能:
"三方"方法:
其他领域的经验教训:
资料来源
OpenAI案为整个人工智能领域树立了重要先例:
对于开发对话式人工智能的企业:
对于使用人工智能的企业:
核心困境:如何在预防实际犯罪与保障隐私权及数字保密权之间取得平衡?
这个问题不仅是技术性的,还涉及基本原则:
OpenAI的披露标志着人工智能发展历程中的分水岭时刻,但关键不在于该报告本身是否绝对正确或错误,而在于如何使其有效、公平且尊重权利。
需求是真实的:具体的暴力威胁、袭击计划或其他严重犯罪都需要采取行动。问题不在于是否举报,而在于如何负责任地举报。
需要解决的基本差异:
培训与能力:
透明度与控制:
比例性:
对于该行业的公司而言,挑战在于开发既能有效保护社会安全,又不沦为无差别监控工具的系统。用户信任至关重要,但必须与社会责任并存。
对用户而言,这有双重意义:
对话式人工智能的未来需要一个新的框架,该框架应具备以下特性:
正确的问题不是机器是否应该举报犯罪,而是我们如何确保它们至少能以与人类专业人士同等的智慧、训练和责任感来执行这项任务。
目标并非回归对现实危险"视而不见"的人工智能,而是构建兼具技术效率与伦理意识、融合人类智慧的系统。唯有如此,我们才能兼得两全其美:既保障安全,又守护个人权利。