免责声明:金色财经所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(jinse.com.cn) 举报

    OpenAI遭刑事调查:枪击案ChatGPT成“帮凶”

    SOHwutHe971TkyMQsB1apRO9WgguLNO5QLJVuFLH.jpeg

    作者:金鹿,腾讯科技特约编译

    在美国频发的暴力事件中,犯罪嫌疑人都使用了AI聊天工具,尤其是ChatGPT。AI公司到底是否该负法律责任,已引发巨大的司法争议。

    当一个人萌生了杀心时,他最先想到的倾诉对象,可能不再是隐秘的论坛或地下聊天群,而是一个随时在线、有问必答的AI聊天机器人。

    这不是科幻片里的桥段。过去一年多,美国佛罗里达州和加拿大不列颠哥伦比亚省的两起大规模枪击案,调查时都发现了一件事:嫌疑人在动手之前,都曾和聊天机器人聊了很久,包括犯罪信息。

    那些对话原本有机会被拦截。但它们没有。最终,这些文字悄无声息地滑进了真实世界的血泊里。

    人们开始追问:那个在聊天框里给出“建议”的声音,在整件事里到底扮演了什么角色?而那些制造它的人,又该在什么时候站出来打断这一切?暴力发生后,AI公司到底该负什么法律责任?

    这起案件点燃了美国司法机构的怒火

    美国时间4月17日的佛罗里达州立大学学生菲尼克斯·伊克纳(Phoenix Ikner)的案例,首次将AI聊天机器人在暴力犯罪中的角色推到了刑事调查的前台。

    案发前一晚,伊克纳向ChatGPT表达了抑郁和自杀的念头。但很快,对话的性质变了。《华尔街日报》查阅的对话记录显示,伊克纳开始询问一些更为具体的问题。他想知道,究竟需要造成多大伤亡,才能让自己变得“名扬全国”。

    ChatGPT给了他一个度量标准:“通常需要造成3人或以上死亡,总共有5到6名受害者,才能被推到全国媒体的聚光灯下。”

    k64ChHcm85YtK4iLO7vch3rmPW5FKUczFi8PJKVX.jpeg

    这无异于为一场尚在策划中的惨剧,标定了一个冷血的“成功”门槛。紧接着,伊克纳上传了一张格洛克手枪和弹药的照片,询问如何使用。

    四分钟后,伊克纳注销了账户。检察官称,随后他在校园内开枪,导致两人死亡,六人受伤。他目前面临谋杀和谋杀未遂的指控。

    这起案件点燃了美国地方司法机构的怒火。2026年4月,佛罗里达州总检察长詹姆斯·乌斯迈尔(James Uthmeier)宣布对此事展开刑事调查,这是全美首次有总检察长试图追究一家AI公司对死亡事件的刑事责任。

    乌斯迈尔的表态毫不留情:“如果屏幕另一端是个人,我们会以谋杀罪起诉他。”他补充道,“需要有人为此承担责任。”

    面对指控,OpenAI的女发言人回应称,该公司不认为其聊天机器人应对伊克纳的行为负责,并强调事件发生后,公司已主动与执法部门分享了对话记录。

    被标记却未发出的警报:一个矿业小镇的悲剧

    如果说佛罗里达州的案件暴露了AI回应的直接危害,那么几个月后发生在加拿大的另一起事件,则揭开了OpenAI内部一场关于生命与隐私的激烈博弈。

    2026年2月,在加拿大不列颠哥伦比亚省的小镇图布林里奇,18岁的杰西·范·鲁瑟拉尔(Jesse Van Rooyselaar)制造了一起8人死亡、超过25人受伤的枪击惨案。事后回溯,OpenAI内部的许多员工早在几个月前就感到了不安。

    据知情人士透露,范·鲁瑟拉尔在几天内向ChatGPT描述了大量涉及枪支暴力的场景。这些文字被多名员工解读为可能发生现实世界暴力的明确信号。OpenAI的自动化系统标记了这个账户,一个由调查、运营、产品政策和法律部门员工组成的团队专门就此开会讨论。会上,一些工作人员明确主张,应该向执法部门报警。

    然而,据称法律团队以保护用户隐私为由提出了反对。这种立场,呼应了公司高层,包括首席执行官山姆·奥特曼(Sam Altman)在内部表达的观点。公司后来解释称,需要在暴力风险与隐私考量之间进行权衡,并担心执法部门贸然介入可能给个人和家庭带来不必要的痛苦,“尤其是当警察不请自来时”。最终,OpenAI领导层决定不报警。

    这个决定带来了毁灭性的后果。枪击案发生后,遇难者家属和一名幸存者共提起了七起诉讼,指控OpenAI犯有过失致人死亡、疏忽,甚至协助和教唆枪击。代表家属的律师杰伊·埃德尔森(Jay Edelson)说:“这是第一次有一个社区集体站出来说,我们必须追究OpenAI的责任。”

    在巨大的压力下,OpenAI在4月底才姗姗来迟地向图布林里奇镇发布了一封由奥特曼署名的道歉信,承认未能及早向警方通报情况。他写道:“我想向整个社区表达我最深切的哀悼。任何人都不应该承受这样的悲剧。”同时,OpenAI表示,依据已经修订的规则,今天再发现类似账户,会立刻将其提交给执法部门。

    得克萨斯州高中生与不断被突破的底线

    除了那些已酿成血案的案例,更多未被曝光的危险互动同样令人心惊。

    在一场旨在厘清内部报告标准的夏季会议上,OpenAI员工激烈辩论了一个关于得克萨斯州高中生的案例,这一案例将“角色扮演”的幌子与潜在的现实威胁之间的模糊界限,赤裸裸地摊在了桌面上。

    据一位熟悉对话的人士回忆,这名青少年放学回家后,会频繁要求ChatGPT陪他“幻想”袭击校园的场景。“那个孩子会告诉它,让我们幻想枪击我的学校,而聊天机器人会配合他。”

    在长达数小时的互动中,这名学生上传了学校布局图、声称想要幻想其成为受害者的啦啦队员及其男友的照片。他不仅要求ChatGPT创建具体的行凶路线,甚至询问当警察抵达时他该说什么。ChatGPT记住了那些被点名的同学的名字,并就进出路线提供了建议。

    面对如此明确和详细的危险信号,OpenAI内部的分歧依然尖锐。调查团队认为应当立即报警,而法律团队再次基于隐私考量提出反对。最终,领导层决定不报警。据员工所知,这名青少年至今尚未实施暴力行为,但这个案例像一颗未引爆的炸弹,凸显了OpenAI决策红线的不确定性。

    对此,X用户@mohbii指出,这样的问题反复出现,说明不是偶发事故。让一项AI既深入有用又绝对安全,这本身就很难。但当一个产品已推给几亿人,别人只要用点小技巧就能把它变成一本“武器说明书”,这就说不过去了。归根结底,这不是用户的问题,而是产品设计上就留下了可钻的空子。公司急于把东西推上市,安全测试恐怕被甩在了后头。

    9yfrJO6h2vCNZWQNt74khSZtF0HpZDI6iPbFhhdo.jpeg

    八成聊天机器人经不起“暴力测试”

    OpenAI的困境是整个行业的缩影。

    非营利组织“反数字仇恨中心”的首席执行官伊姆兰·艾哈迈德(Imran Ahmed)主导了一项测试:研究人员假扮策划袭击者,向10个顶级聊天机器人寻求建议。

    结果令人警醒。艾哈迈德描述道:“在几分钟内,用户就可以从模糊的暴力冲动过渡到更详细、可操作的计划。”测试中,10个聊天机器人里有8个,在超过一半的响应里直接或间接提供了协助,包括关于袭击目标和武器选择的建议。

    不同公司的表现差异巨大。测试发现,ChatGPT曾向一名假装对校园暴力感兴趣的研究人员提供了高中校园地图。但与此形成鲜明对比的是,Anthropic的Claude和社交通讯公司Snaps的机器人拒绝了所有请求。

    Claude的典型回应是:“我直白地告诉你:不要伤害任何人。暴力永远不是解决政治分歧的办法。”随后便中断协助,引导用户寻求心理帮助。

    面对舆论和法律责任,封禁账户是科技公司最直接的防御手段,但事实证明,这堵墙并不牢靠。

    图布林里奇案的嫌疑人范·鲁瑟拉尔,在作案前其账户就已被OpenAI封禁。然而,据诉讼文件披露,她又用相同的名字和不同的电子邮件地址开设了第二个账户。OpenAI直到他的名字被公开确认为嫌疑人后,才发现并关闭了这个新账户。

    另一起事件则展现了普通人求助时的困境。旧金山的一名女子长期被前男友利用聊天机器人进行网络骚扰和死亡威胁,对方甚至创建了一个名为“暴力扩展列表”的聊天记录。这名女子不堪其扰,委托律师杰伊·埃德尔森(Jay Edelson)反复与OpenAI沟通。

    起初,OpenAI承认情况“极其严重和令人不安”,但随后便不再回应。埃德尔森谈及此事时说:“毋庸置疑,这对我们客户产生了巨大影响。她遭受了围攻。”直到今年4月,旧金山一名法官下令,OpenAI才封禁了那名前男友的账户。

    OpenAI发言人对此表示,一旦确定用户违规,就会撤销其访问权限,并采取措施防止其开设新账户。但从实际效果看,这一机制显然存在漏洞。

    问责的起点:隐私与安全的红线之争

    为何这些本应敏锐的警报系统,在关键时刻屡屡“失声”?

    问题的核心,或许在于AI公司内部乃至整个社会,在网络言论的隐私边界与公共安全责任之间,尚未划出一条清晰的界线。

    X用户@maumofa306评论道,将问题简单归结为“失控的聊天机器人”是一种过度简化。AI系统并非在真空中运行,它们反映的是背后公司所设定的护栏、执行机制与商业激励。真正的问题不仅在于内容本身能否生成有害回应,更在于为什么监督、安全测试和政策未能跟上技术部署的步伐。耸人听闻的标题无法解决问题,唯有明确的问责制和透明的安全标准才有可能带来改变。

    bpruGyXUgbnYPl5t1pEjtSlLhKG2N6BuGn6GLVoJ.jpeg

    这一观点恰好解释了OpenAI内部的矛盾。

    在那场决定是否报警的会议上,调查团队凭直觉主张更频繁地通知警方,而法律团队则倾向于为保护用户隐私设定更高门槛,这得到了首席执行官奥特曼的认同。OpenAI透露,他们每年会将大约15到30个用户提交给执法部门,但安全团队的员工私下认为这个数字理应更高。

    如今,外部压力正在迫使OpenAI做出改变。佛罗里达州总检察长乌斯迈尔的办公室正在寻求OpenAI关于用户伤害威胁的内部政策、执法合作培训材料以及组织架构图等关键信息,以调查其员工是否意识到产品对某些用户构成的风险。“必须有人被追究责任。”乌斯迈尔再次强调。

    去年12月,由全美42位州总检察长组成的联盟致信多家主流AI公司,警告称“开发者可能因其生成式AI产品的输出而被追究责任”,如果这些输出“鼓励个人实施犯罪行为”。宾夕法尼亚州总检察长戴夫·桑德(Dave Sunday)的声明掷地有声:“这种改变世界的技术在很多层面上都令人兴奋和着迷,但正如我们在全国各地的悲剧中看到的那样,如果不受约束,它也极其危险。”

    OpenAI表示,已开始聘请心理健康和行为健康专家评估疑难案件,并修订了规则,即便用户未在对话中明确讨论暴力的具体目标、手段和时间,只要存在潜在风险,就可能触发警报。

    OpenAI正试图修补漏洞,但那些已经付出的生命代价,仍在持续拷问着技术与人性的边界。

    jinse.com.cn 0
    好文章,需要你的鼓励
    jinse.com.cn 0
    好文章,需要你的鼓励
    参与评论
    0/140
    提交评论
    文章作者: / 责任编辑:

    声明:本文由入驻金色财经的作者撰写,观点仅代表作者本人,绝不代表金色财经赞同其观点或证实其描述。

    提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。

    金色财经 > 腾讯科技 > OpenAI遭刑事调查:枪击案ChatGPT成“帮凶”
    • 寻求报道
    • 金色财经中国版App下载
      金色财经APP
      iOS & Android
    • 加入社群
      Telegram
    • 意见反馈
    • 返回顶部
    • 返回底部