OpenAI

美国国土安全部从OpenAI调取用户数据,查出暗网儿童性剥削网站的管理员

一份解封的联邦搜查令显示,2025年10月,美国国土安全调查局(HSI)首次要求OpenAI提供ChatGPT用户数据,以追查一名涉嫌运营暗网儿童性剥削网站的嫌疑人。国土安全调查局(HSI)是美国国土安全部(DHS)下属的首要联邦执法机构。 这份由缅因州法院解封并经《福布斯》审查的文件揭示,执法部门通过嫌疑人与卧底探员的对话,锁定其使用ChatGPT的记录,开启了一条突破性调查路径。此案标志着生成式人工智能平台首次因用户提示被要求披露信息,引发了对隐私与执法界限的广泛关注。 从暗网到ChatGPT:调查的突破口 过去一年,HSI一直在努力揭开一个暗网儿童性剥削网站管理员的身份,但进展缓慢。转机出现在嫌疑人向卧底探员透露其使用ChatGPT的细节时。嫌疑人分享了两段ChatGPT对话:一段是关于“夏洛克·福尔摩斯与星际迷航中Q相遇”的虚构讨论,另一段则是ChatGPT生成的一首20万字诗歌片段,模仿特朗普的夸张风格,主题为“对基督教青年会的热爱”。这些看似无害的提示成为关键线索,促使HSI向OpenAI发出搜查令,要求提供输入者的姓名、地址、支付数据及其他对话记录。 36岁的德鲁·霍纳(Drew Hoehner)被指控为15个暗网儿童性剥削网站的管理员,面临串谋宣传儿童性虐待内容(CSAM)的指控。HSI通过卧底对话获悉,霍纳曾在美国军方工作,驻德国拉姆施泰因空军基地七年,并申请了国防部新职位。这些信息结合OpenAI提供的Excel表格数据,帮助执法部门确认其身份。 暗网犯罪与人工智能的交汇 这些暗网网站运行在Tor网络上,通过加密流量和多服务器中转隐藏用户身份,拥有至少30万用户。网站组织严密,设有管理员和版主团队,甚至为活跃用户颁发徽章。其中一个子网站专门托管AI生成的儿童性虐待内容,凸显了人工智能技术在犯罪活动中的滥用。OpenAI的数据显示,2024年7月至12月,其向美国国家失踪与受虐儿童中心报告了31,500条与儿童性虐待相关的内容,并在71次政府请求中提供了132个账户的信息。 搜查令显示,OpenAI已向HSI提交了一份包含用户信息的Excel表格,尽管具体数据尚未公开。此案是首个公开的反向AI提示请求案例,表明执法部门正利用ChatGPT的交互记录作为刑事调查的证据来源,与传统搜索引擎(如谷歌)被要求提供搜索记录的做法类似。 执法与隐私的微妙平衡 虽然霍纳的ChatGPT提示与儿童性剥削无关,但其账户信息为调查提供了关键突破。电子前沿基金会法律顾问詹妮弗·林奇(Jennifer Lynch)指出,此案表明执法部门日益依赖AI平台获取证据,凸显了OpenAI等公司需重新审视用户数据收集政策。搜查令虽仅针对霍纳的两个提示,但其潜在影响深远,可能为未来类似请求开辟先例。林奇警告,AI公司应限制数据收集规模,以保护用户隐私。 霍纳的案例显示,执法部门并未直接依赖OpenAI数据锁定其身份,而是通过卧底对话获取了军方背景等信息。然而,OpenAI提供的数据可能在确认身份和构建起诉证据中发挥了关键作用。截至目前,霍纳尚未提出抗辩,其律师和OpenAI均未回应置评请求。 AI时代执法的新前沿 美国首次针对ChatGPT用户数据的搜查令揭露了执法部门追踪暗网犯罪的新策略。从霍纳的案例可以看出,AI平台的交互记录正成为调查儿童性剥削等严重犯罪的重要工具。 然而,这种做法也引发了隐私保护的争议,OpenAI等公司面临如何平衡用户数据安全与执法合作的挑战。HSI通过结合卧底行动与AI数据成功指控暗网管理员,显示了技术在打击隐秘犯罪中的潜力,但也提醒我们,在AI时代,执法与隐私的界限需要更加谨慎的界定。此案不仅是调查技术的里程碑,也为AI行业的监管与责任敲响了警钟。

卡巴斯基发现有3000篇暗网帖子讨论如何滥用ChatGPT和LLM等人工智能工具

卡巴斯基数字足迹情报服务近日发布的一份报告发现,在2023年,有近3000个暗网帖子在讨论如何使用ChatGPT和其他大型语言模型(LLM)进行非法活动。 这些讨论包括创建聊天机器人的恶意替代品、越狱(突破语言设置的恶意使用限制)技术、恶意提示列表以及有关如何滥用这些工具的其他一般对话,以及讨论可访问ChatGPT付费版本的被盗帐户的帖子。 主要见解 卡巴斯基的数字足迹情报服务在2023年发现了近3000个暗网帖子,讨论涉及ChatGPT和其他大型语言模型(LLM)的非法活动。 其中包括创建恶意版本、越狱技术、有害提示列表以及有关被盗帐户的讨论。 暗网上的威胁参与者积极分享有关利用ChatGPT的知识,讨论创建恶意软件、使用人工智能处理用户数据转储以及共享越狱以绕过内容审核策略等主题。 研究还发现,围绕WormGPT、XXXGPT和FraudGPT等工具进行了大量讨论,这些工具被作为ChatGPT的替代品销售,限制较少。 卡巴斯基的研究发布前不久,OpenAI暂停了一名开发者的资格,原因是他创建了一个模仿美国国会议员迪恩·飞利浦(DeanPhilips)的聊天机器人。该组织表示,这一行为违反了其关于政治竞选或未经同意冒充个人的规则。 ChatGPT如何被利用?主要发现 虽然企业和消费者将ChatGPT作为改善日常生活的工具,但威胁行为者正在尝试利用它来攻击毫无戒心的个人和组织。 在随附的研究博客上分享的一系列帖子中,可以看到暗网用户讨论如何使用GPT创建可以修改其代码的多态恶意软件,以及如何使用人工智能(AI)处理用户数据转储。 另一位用户分享了著名的ChatGPT的“Do Anything Now“(DAN)越狱,旨在绕过OpenAI的内容审核政策。研究发现,在2023年,暗网上有249项分发和销售提示信息的提议。 总的来说,这些发现不仅凸显了ChatGPT可能被滥用,而且还表明网络犯罪分子正在积极分享如何利用它的知识。正如一位匿名用户评论的那样,“AI帮了我很多,GPT-4是我最好的朋友。” 卡巴斯基数字足迹分析师阿丽萨·库利申科(Alisa Kulishenko)表示:“威胁行为者正在积极探索实施ChatGPT和人工智能的各种方案。” “主题通常包括恶意软件的开发和其他类型的非法使用语言模型,例如处理被盗用户数据、解析受感染设备中的文件等。 “人工智能工具的普及导致ChatGPT或其同类工具的自动响应被集成到一些网络犯罪论坛中。” “此外,威胁行为者倾向于通过各种暗网渠道分享越狱信息(可以解锁附加功能的特殊提示集),并设计出利用基于模型的合法工具的方法,例如基于恶意目的模型的渗透测试工具。” 到目前为止有什么风险? 虽然库里申科认为“生成式人工智能和聊天机器人不太可能彻底改变攻击格局”,但这项研究表明,威胁行为者对利用这项技术达到自己的目的产生了浓厚的兴趣。 到目前为止,生成式技术最大的风险似乎来自于他们创建网络钓鱼电子邮件的能力。例如,网络安全供应商SlashNext于2023年11月发布的一项研究发现,自2022年第四季度ChatGPT发布以来,恶意网络钓鱼电子邮件增加了1265%。 尽管OpenAI等供应商已尝试使用内容审核策略来阻止ChatGPT产生恶意输出,但事实证明这些策略不足以防止滥用,而且很容易通过越狱和其他技术来规避。 简要测试下ChatGPT的内容审核功能,要求ChatGPT生成一封网络钓鱼电子邮件,“作为网络钓鱼防范意识计划的一部分”,通过该电子邮件可以说服收件人更新其在线帐户支付详细信息,聊天机器人对此做出了回应,生成了一封基本的钓鱼邮件。 现实情况是,如果有人想恶意使用LLM,他们有很多变通办法可以做到这一点。 底线 该研究强调,暗网正热衷于使用人工智能来自动化网络攻击。尽管不必惊慌,但必须认识到网络犯罪有可能增加。 如果黑客论坛和其他地下社区继续就如何恶意使用这项技术进行合作,网络犯罪将不可避免地增加。 如今,人工智能初创公司已超过67000家,谁知道这条崎岖的道路将会把人类带向何方?