ChatGPT

卡巴斯基发现有3000篇暗网帖子讨论如何滥用ChatGPT和LLM等人工智能工具

卡巴斯基数字足迹情报服务近日发布的一份报告发现,在2023年,有近3000个暗网帖子在讨论如何使用ChatGPT和其他大型语言模型(LLM)进行非法活动。 这些讨论包括创建聊天机器人的恶意替代品、越狱(突破语言设置的恶意使用限制)技术、恶意提示列表以及有关如何滥用这些工具的其他一般对话,以及讨论可访问ChatGPT付费版本的被盗帐户的帖子。 主要见解 卡巴斯基的数字足迹情报服务在2023年发现了近3000个暗网帖子,讨论涉及ChatGPT和其他大型语言模型(LLM)的非法活动。 其中包括创建恶意版本、越狱技术、有害提示列表以及有关被盗帐户的讨论。 暗网上的威胁参与者积极分享有关利用ChatGPT的知识,讨论创建恶意软件、使用人工智能处理用户数据转储以及共享越狱以绕过内容审核策略等主题。 研究还发现,围绕WormGPT、XXXGPT和FraudGPT等工具进行了大量讨论,这些工具被作为ChatGPT的替代品销售,限制较少。 卡巴斯基的研究发布前不久,OpenAI暂停了一名开发者的资格,原因是他创建了一个模仿美国国会议员迪恩·飞利浦(DeanPhilips)的聊天机器人。该组织表示,这一行为违反了其关于政治竞选或未经同意冒充个人的规则。 ChatGPT如何被利用?主要发现 虽然企业和消费者将ChatGPT作为改善日常生活的工具,但威胁行为者正在尝试利用它来攻击毫无戒心的个人和组织。 在随附的研究博客上分享的一系列帖子中,可以看到暗网用户讨论如何使用GPT创建可以修改其代码的多态恶意软件,以及如何使用人工智能(AI)处理用户数据转储。 另一位用户分享了著名的ChatGPT的“Do Anything Now“(DAN)越狱,旨在绕过OpenAI的内容审核政策。研究发现,在2023年,暗网上有249项分发和销售提示信息的提议。 总的来说,这些发现不仅凸显了ChatGPT可能被滥用,而且还表明网络犯罪分子正在积极分享如何利用它的知识。正如一位匿名用户评论的那样,“AI帮了我很多,GPT-4是我最好的朋友。” 卡巴斯基数字足迹分析师阿丽萨·库利申科(Alisa Kulishenko)表示:“威胁行为者正在积极探索实施ChatGPT和人工智能的各种方案。” “主题通常包括恶意软件的开发和其他类型的非法使用语言模型,例如处理被盗用户数据、解析受感染设备中的文件等。 “人工智能工具的普及导致ChatGPT或其同类工具的自动响应被集成到一些网络犯罪论坛中。” “此外,威胁行为者倾向于通过各种暗网渠道分享越狱信息(可以解锁附加功能的特殊提示集),并设计出利用基于模型的合法工具的方法,例如基于恶意目的模型的渗透测试工具。” 到目前为止有什么风险? 虽然库里申科认为“生成式人工智能和聊天机器人不太可能彻底改变攻击格局”,但这项研究表明,威胁行为者对利用这项技术达到自己的目的产生了浓厚的兴趣。 到目前为止,生成式技术最大的风险似乎来自于他们创建网络钓鱼电子邮件的能力。例如,网络安全供应商SlashNext于2023年11月发布的一项研究发现,自2022年第四季度ChatGPT发布以来,恶意网络钓鱼电子邮件增加了1265%。 尽管OpenAI等供应商已尝试使用内容审核策略来阻止ChatGPT产生恶意输出,但事实证明这些策略不足以防止滥用,而且很容易通过越狱和其他技术来规避。 简要测试下ChatGPT的内容审核功能,要求ChatGPT生成一封网络钓鱼电子邮件,“作为网络钓鱼防范意识计划的一部分”,通过该电子邮件可以说服收件人更新其在线帐户支付详细信息,聊天机器人对此做出了回应,生成了一封基本的钓鱼邮件。 现实情况是,如果有人想恶意使用LLM,他们有很多变通办法可以做到这一点。 底线 该研究强调,暗网正热衷于使用人工智能来自动化网络攻击。尽管不必惊慌,但必须认识到网络犯罪有可能增加。 如果黑客论坛和其他地下社区继续就如何恶意使用这项技术进行合作,网络犯罪将不可避免地增加。 如今,人工智能初创公司已超过67000家,谁知道这条崎岖的道路将会把人类带向何方?

恶意人工智能工具“WormGPT”的虚假访问权限在暗网上出售

卡巴斯基数字足迹情报专家在影子互联网——暗网上发现了一系列似乎在出售对恶意人工智能工具“WormGPT”的虚假访问权限的网站。这些网站具有类似网络钓鱼的特征,包括不同的设计、定价、支付货币,有些网站需要预付款才能访问试用版。这一趋势虽然不会对用户构成直接威胁,但凸显了GPT模型的黑帽替代品的日益流行,并强调了对强大网络安全解决方案的需求。 网络犯罪社区已经开始利用人工智能功能来帮助他们的业务,暗网目前提供了一系列专为黑客目的而设计的语言模型,例如BEC(商业电子邮件泄露)、恶意软件创建、网络钓鱼攻击等。其中一个模型是“WormGPT”,它是“ChatGPT”的一个版本,与合法版本的“ChatGPT”不同,它缺乏特定的限制,使其成为网络犯罪分子实施攻击(例如BEC商业电子邮件泄露)的有效工具。 网络钓鱼者和诈骗者经常利用某些产品和品牌的知名度进行诈骗,“WormGPT”也不例外。在暗网论坛和非法的Telegram频道中,卡巴斯基专家发现了一些网站和广告,这些网站和广告号称提供对这个恶意AI工具的访问权限,并以其他网络犯罪分子为目标,但是这些网站和广告显然是钓鱼网站。 这些网站在多个方面存在显着差异,并且被设计为典型的网络钓鱼页面。他们有不同的设计和定价。支付方式也各不相同,从WormGPT作者最初提出的加密货币,到信用卡和银行转账。 “在暗网中,不可能绝对肯定地分辨出恶意资源还是靠谱资源。然而,有许多间接证据表明,所发现的网站确实是网络钓鱼网页。众所周知,网络犯罪分子经常互相欺骗。然而,最近的网络钓鱼尝试可能表明这些恶意人工智能工具在网络犯罪社区中的流行程度。卡巴斯基公司数字足迹分析师Alisa Kulishenko解释说:“这些模型在一定程度上促进了攻击的自动化,从而强调了可信网络安全解决方案的日益重要性。” 自“WormGPT”以来,许多类似的产品已在暗网社区中传播,其中包括“FraudGPT”,该威胁行为者声称自己是经过验证的供应商,将其宣传为“没有限制、规则和边界的机器人”。地下暗网市场,包括Empire、WHM、Torrez、World、AlphaBay和Versus。8月,基于Google Bard的DarkBART和DarkBERT网络犯罪聊天机器人出现,当时的研究人员表示,这代表了对抗性人工智能的重大飞跃,包括用于图像的Google Lens集成以及对整个网络地下网络的即时访问知识库。 为了避免与网络犯罪分子在暗网这个互联网阴影部分的活动相关的威胁,值得实施以下安全措施: 使用威胁情报产品,例如卡巴斯基数字足迹智能,以帮助安全分析人员探索对手对其公司资源的看法,并及时发现其潜在的攻击载体。这还有助于提高对网络犯罪分子现有威胁的认识,以便相应地调整防御措施或及时采取应对和消除措施。 选择可靠的端点安全解决方案,例如卡巴斯基网络安全解决方案企业版,它配备了基于行为的检测和异常控制功能,可有效防范已知和未知威胁。 使用安全响应的专用服务,可以帮助抵御引人注目的网络攻击,例如卡巴斯基托管检测和响应服务可以在入侵者达到目的之前,帮助在入侵的早期阶段识别并阻止入侵。如果遇到事件,卡巴斯基事件响应服务将帮助您做出响应并将后果降到最低,例如识别被入侵的节点并保护基础设施在未来免受类似攻击。

ChatGPT的邪恶兄弟WormGPT问世,为暗网上的黑客提供了支持

近年来,人工智能(AI)取得了长足的进步,给各行各业带来了革命性的变化。然而,与任何技术一样,总是有人试图利用它来达到恶意目的。网络安全公司SlashNext最近发现,黑客正在使用一种名为WormGPT的人工智能工具进行网络攻击。该工具基于OpenAI的ChatGPT,专为恶意活动而设计,对网络安全构成重大威胁。 WormGPT利用复杂的人工智能模型,可以生成类似于人类语音的文本。它该模型在各种数据源上进行了训练,尤其侧重于恶意软件相关数据。这使得该工具能够创建的电子邮件不仅非常有说服力,而且在战略上也很狡猾,显示出它在复杂的网络钓鱼攻击方面的潜力。黑客论坛上发布的屏幕截图展示了人工智能机器人可以执行的各种任务,包括创建网络钓鱼电子邮件和编写恶意软件攻击代码。 与OpenAI的ChatGPT和Google的Bard等领先的人工智能工具不同的是,这些工具设有防止滥用的保障措施,而WormGPT是专门为促进犯罪活动而设计的。它的创建者认为,它是对ChatGPT最大的威胁,因为它能够使用户进行各种非法活动。这引发了人们对人工智能工具落入网络犯罪分子手中的潜在影响的担忧。 ChatGPT和WormGPT等人工智能工具带来的危险已经引起了专家、政府官员、甚至ChatGPT创建者的关注。他们强调有必要制定相关法规,以保护公众免受滥用这些技术的危害。执法组织欧洲刑警组织(Europol)也对ChatGPT等大型语言模型(LLM)可能被用于欺诈、冒名顶替和社会工程提出了警告。 围绕ChatGPT等人工智能工具的一个主要问题是,它们能够根据用户提示生成高度真实的文本。这使得它们对于网络钓鱼攻击非常有用。过去,由于明显的语法和拼写错误,基本的网络钓鱼诈骗往往很容易被识破。然而,随着人工智能的发展,现在即使对英语有基本的了解,也能以高度逼真的方式假冒组织或个人。 欧洲刑警组织强调,LLM使黑客能够更快、更真实、更大规模地实施网络攻击。这对不断努力对抗网络犯罪分子的网络安全专业人员构成了重大挑战。WormGPT等人工智能工具的使用使情况进一步复杂化,因为它们为黑客提供了利用漏洞和实施攻击的新方法。 为了解决这些问题,越来越多的人呼吁制定能够有效管理人工智能工具使用并防止其滥用的法规。立法者需要与该领域的专家密切合作,制定在促进创新和维护公共安全之间取得平衡的框架。关键是要制定道德准则和限制,以确保人工智能工具得到负责任的使用,并造福社会。 总之,像WormGPT这样的人工智能工具的出现,引起了人们对网络犯罪分子利用这些人工智能技术进行恶意目的可能性的严重担忧。这些工具生成真实文本和模仿人类语音的能力对网络安全构成了重大威胁。政府、网络安全专业人士和人工智能开发人员必须通力合作,制定能有效应对这些挑战的法规。通过这样做,我们可以利用人工智能的力量,同时确保数字时代个人和组织的安全和福祉。 WormGPT的Telegram频道订阅用户已经达到2000多人,该频道介绍了该项目以及报价,并推送了一些功能更新。 WormGPT的介绍 我们的项目旨在提供 ChatGPT 的替代品,允许您创建各种无法检测的恶意软件、BEC 电子邮件和一般黑客工具。我们的工具允许黑帽活动,不保留任何日志或信息。 功能: ◉快速稳定的回复 ◉无限字符 ◉注重隐私 ◉允许黑帽 ◉将结果保存在 TXT 文件中 ◉不同的 AI 模型 计划中的功能: ◉系统角色–为了获得更准确的结果,您可以为人工智能设置一个角色(例如:高级开发人员) ◉托管网站 – 所有内容均在线托管,无需下载,无可执行文件 WormGPT的报价 ◉ 1 个月 – 60 美元 ◉ 3 个月 – 180 美元 ◉ 6 个月 – 400 美元 ◉ 12 个月 – 700 美元 WormGPT的Telegram频道的公告号称已经拥有超过1500用户正在使用该工具,并表示12个小时后价格就将上涨,也间接说明了其受网络犯罪分子欢迎的程度。

超过10万个被盗的ChatGPT帐户凭证在暗网市场上出售

2022年6月至2023年5月期间,超过101100个被盗的OpenAI ChatGPT帐户凭证在非法暗网市场中被发现,仅印度就有12632个被盗的凭证。 Group-IB公司在一份报告中表示,这些凭证是在地下网络犯罪出售的信息窃取日志中发现的。 这家总部位于新加坡的公司表示:“包含被盗取ChatGPT帐户的可用日志数量在2023年5月达到26802个的峰值。”“在过去的一年里,亚太地区经历了最集中的ChatGPT凭证被提供出售的情况。” ChatGPT凭证被盗数量最多的其他国家包括巴基斯坦、巴西、越南、埃及、美国、法国、摩洛哥、印度尼西亚和孟加拉国。 进一步的分析显示,大多数包含ChatGPT账户的日志被臭名昭著的Raccoon信息窃取工具盗取(78348),其次是Vidar(12984)和RedLine(6773)。 信息窃取工具因其能够从浏览器和加密货币钱包扩展劫持密码、cookie、信用卡和其他信息而受到网络犯罪分子的欢迎。 Group-IB表示:“包含信息窃取工具收集的被盗信息的日志在暗网市场上活跃交易。” “有关此类市场上可用日志的其他信息包括日志中找到的域名列表以及有关受感染主机的IP地址的信息。” 它们通常基于订阅定价模式提供,不仅降低了网络犯罪的门槛,而且还成为使用被盗凭证发起后续攻击的渠道。 Group-IB威胁情报主管Dmitry Shestakov表示:“许多企业正在将ChatGPT集成到他们的运营流程中。” “员工输入机密信件或使用机器人优化专有代码。鉴于ChatGPT的标准配置保留了所有对话,如果威胁行为者获得账户凭证,这可能会无意中为他们提供敏感情报的宝库。“ 为了减轻此类风险,建议用户遵循适当的密码要求习惯,并使用双因素身份验证(2FA)保护其帐户,以防止帐户被接管攻击。 这一发展是在一个正在进行的恶意软件活动中出现的,该活动利用假的OnlyFans网页和成人内容的诱惑来提供一个远程访问木马和一个名为DCRat(或DarkCrystal RAT)的信息窃取器,这是AsyncRAT的一个修改版本。 eSentire公司研究人员表示:“在观察到的情况下,受害者被引诱下载包含手动执行的VBScript加载程序的ZIP文件。”并指出该活动自2023年1月以来一直在进行。 “文件命名惯例表明,受害者是被利用各种成人电影女演员的露骨照片或OnlyFans内容被引诱的。” 这也是在发现一种名为GuLoader(又名CloudEyE)的恶意软件的新VBScript变体之后,它采用了以税收为主题的诱饵来启动PowerShell脚本,能够检索并将Remcos RAT注入合法的Windows进程中。 这家加拿大网络安全公司在本月早些时候发布的一份报告中表示:“GuLoader是一种高度规避的恶意软件加载程序,通常用于提供信息窃取者和远程管理工具(RAT)。” “GuLoader利用用户启动的脚本或快捷方式文件来执行多轮高度混淆的命令和加密的shellcode。其结果是一个内存驻留的恶意软件有效载荷在一个合法的Windows进程内运行。” OpenAI在一份声明中称:“Group-IB的威胁情报报告的调查结果是人们在设备上被种植恶意软件的结果,而不是OpenAI的数据泄露行为。” “我们目前正在调查已泄露的帐户。OpenAI维护了对用户进行身份验证和授权使用包括ChatGPT在内的服务的行业最佳实践,我们鼓励用户使用强密码并仅在个人计算机上安装经过验证和可信的软件。”

ChatGPT成为暗网的“最热门话题”,因为网络犯罪分子希望将AI作为武器

据网络安全研究人员称,关于ChatGPT的讨论已经开始充斥在暗网的论坛上,因为黑客们正在寻求利用人工智能(AI)聊天机器人的方法。 在暗网上,也就是通过传统网络浏览器无法访问的互联网部分,有关ChatGPT的新帖子数量在1月至2月期间增长了7倍,而线程的受欢迎程度上升了145%。 Check Point Software Technologies本月早些时候报告称,网络犯罪分子绕过了ChatGPT的安全措施来生成恶意软件。Check Point研究人员在ChatGPT发布后监控了暗网论坛,发现了威胁行为者讨论使用聊天机器人“改进”恶意软件代码的实例。研究人员测试了聊天机器人的编码能力,看看它能为黑客提供什么帮助。 “使用ChatGPT 和 ChatGPT-3,我们没有看到创建真正复杂的东西的能力。”Check Point威胁情报组经理Sergey Shykevich说,“这主要是关于更多的人将进入他们的潜在开发者网络犯罪分子圈子并开发工具,它可以提高复杂威胁的成本效率。” 尽管聊天机器人在编码方面不那么复杂,但ChatGPT可以帮助简化流程。聊天机器人是创建简单恶意软件或为需要帮助的人(例如低技能黑客和脚本小子)改进恶意软件的有用平台。 “他们可以提交代码块并验证勒索软件代码中没有错误或漏洞,或者改进代码或编写网络钓鱼电子邮件作为其感染链的一部分,”Shykevich说。“一个从来都不是开发人员并且从未创建过代码或恶意代码的人现在突然能够尝试创建恶意代码。” 多个安全公司对此进行了分析,并将ChatGPT的利用描述为“暗网最热门的话题”。 论坛上讨论的主题包括让人工智能创建恶意软件的方法、如何利用ChatGPT以及使用它进行网络攻击的方法。 网络安全公司Norton的一份单独报告警告说,网络犯罪分子可能会被这种先进的聊天机器人吸引,因为它能够产生对人类来说无法区分的反应。 使用人工智能软件的一种潜在攻击形式被称为网络钓鱼,目标被诱骗泄露个人信息,从而危及他们的在线账户。 黑客一直在寻找让人工智能执行此类攻击的方法,以克服ChatGPT的创建者OpenAI设置的障碍。 这家人工智能研究公司声称其技术“经过训练可以拒绝不适当的请求”,但是之前已经暴露了某些漏洞,这些漏洞允许用户生成基本的恶意软件。 网络安全专家称:“像ChatGPT这样的聊天机器人可以在很多方面让我们的生活更轻松,比如执行平凡的书面任务、总结复杂的主题或建议假期行程。然而,对于网络犯罪分子来说,革命性的人工智能可能是许多骗局中缺失的一块拼图。” “令人担忧的是,在上个月,暗网上有关ChatGPT的讨论已经从简单的‘作弊’和变通办法——旨在鼓励ChatGPT做一些有趣或意想不到的事情——演变为完全控制该工具并将其武器化。” 非法使用ChatGPT 早在2022年12月,Reddit用户就已经讨论过“越狱”或某些提示,成功推翻了ChatGPT的防御系统。用户分享他们欺骗聊天机器人做出歧视性或荒谬的陈述。 虽然戳破聊天机器人的防御系统最初是为了展示聊天机器人的缺陷,但威胁者已经非法利用了其弱点。Check Point研究人员观察到,威胁行为者通过三种方式利用OpenAI的API生成恶意软件。 2022年12月21日,一名用户名为USDoD的威胁行为者在暗网论坛上透露,他使用ChatGPT生成了他的第一个脚本。这个多层加密的Python工具可以用来加密一个人的文件,但它也可以作为一个勒索软件的模型。 USDoD承认他以前从未创建过脚本,这引起了人们的担忧,即聊天机器人会让那些没有技术技能的人创建恶意软件并造成重大损害。NCC Group的首席科学家Chris Anley称,虽然ChatGPT可能无法生产完整的勒索软件,但用户很容易请求生成一个可以被恶意使用的加密脚本。 尽管这段代码可能存在潜在危害,但Shykevich表示,源自ChatGPT的编码USDoD“确实需要一些小的调整才能真正使其正常工作。” 在早些时候的一份报告中,Check Point发现另一名黑客解释说,他在一周后使用ChatGPT重新创建了一个基于python的信息窃取程序代码,该代码可用于从系统中复制和泄露PDF、图像和Office文档等文件。同一位用户随后分享了他编写的一个简单的Java代码,该代码使用PowerShell下载PuTTY软件客户端,但它可以被修改为下载和操作任何程序。 CheckPoint研究人员还发现一名黑客展示了ChatGPT在创建暗网市场中的作用。黑客发布了带有第三方API的代码,该API包含当前加密货币价格,可用于进行非法购买。 绕过ChatGPT限制 一开始,一些安全研究人员认为ChatGPT用户界面中的限制很薄弱,并发现威胁行为者可以轻松绕过障碍。从那以后,Shykevich说OpenAI一直在努力改进聊天机器人的限制。 “我们看到ChatGPT的用户界面的限制每周都会提高很多。所以现在使用ChatGPT进行恶意或滥用活动更加困难。”他说。 但网络犯罪分子仍然可以通过使用和避免某些允许用户绕过限制的词语或短语来滥用该程序。NCC Group商业研究总监Matt Lewis将与在线模型的交互称为涉及计算的“艺术形式”。 Lewis说:“如果你避免使用恶意软件这个词,而只是要求它向你展示加密文件的代码示例,那么它就会故意这样做。”“它有一种喜欢被指示的方式,并且有一些有趣的方法可以让你以多种不同的方式让它做你想让它做的事情。” Lewis展示了该程序将如何“编写一个加密脚本”,尽管没有达到完整的勒索软件的要求,但它仍然可能很危险。“这将是一个很难解决的问题,”Lewis谈到绕过时说,并补充说,对于OpenAI来说,针对上下文和意图的语言监管将极其困难。 更复杂的是,Check Point研究人员观察到,威胁行为者采用Telegram机器人的GPT-3模型的API,称为text-davinci-003,而不是ChatGPT,来推翻聊天机器人的限制。 ChatGPT只是OpenAI模型的一个用户界面。这些模型可供开发人员将后端模型与他们自己的应用程序集成。用户通过API消费这些模型,而这些API并没有受到限制的保护。 “从我们看来,OpenAI对ChatGPT界面设置的障碍和限制主要针对那些通过API使用模型的人。”Shykevich说。 威胁行为者还可以通过向聊天机器人发出准确的提示来规避限制。Cyber​​Ark自ChatGPT推出以来就对其进行了测试,并发现了限制中的盲点。通过反复的坚持和要求,它将提供所需的编码产品。Cyber​​Ark研究人员还报告说,通过不断要求ChatGPT并每次渲染新的代码,用户可以创建高度规避的多态恶意软件。 多态病毒可能非常危险。但Anley指出,已经有在线工具和框架可以用来制作它们。ChatGPT的创建能力对于不熟练的编码人员和脚本小子来说是最有益的。 “就攻击者而言,这不是一种新的能力……也不是一种特别有效的方法来生成你的恶意软件的变种。”Anley说,“已经有一些工具在这方面做得更好。它有可能是新的,因为它可能允许不太熟练的攻击者生成可能危险的代码。” 赌注有多高? 因为ChatGPT的输出往往是不完美的,只有伴随着熟练的黑客的作用,能够对代码进行必要的调整和补充,它们才很可能是有害的。 “可能需要知识渊博的人才能将其转化为武器化的漏洞,一种武器化的恶意软件。”Anley说。 让聊天机器人在创建恶意软件方面更不实用的是,已经有许多工具可用于创建功能性恶意软件。在我们看到AI程序的进步之前,以这种方式使用ChatGPT并不是完全有利的。 “虽然你确实可以以这种方式使用模型来生成一些不好的东西,但我们已经可以以一种从攻击者的角度来看可能更有效、更安全的方式来生成这种类型的恶意软件。”Anley说。 然而,ChatGPT在生成逼真的网络钓鱼电子邮件方面一直很有效,这些电子邮件在标有拼写错误和语法错误时通常无法令人信服。但是使用OpenAI的GPT-3大型语言模型系列构建,ChatGPT可以生成有说服力的电子邮件。 “语言非常好,非常紧凑,所以你可能无法像以前那样区分它,”Lewis说。 为了解决这个问题,OpenAI将继续打击ChatGPT的限制。但威胁行为者很可能会继续寻找滥用该技术的方法。Shykevich警告说,虽然关于聊天机器人节制、限制和审查的讨论很重要,但保障措施永远不足以完全终止恶意活动。 “如果我们不讨论或者限制措施没有从一开始就实施,那么滥用就会变成一个怪物。”Shykevich说。“但也没有办法将滥用减少到零。” 有关ChatGPT ChatGPT目前是世界上增长最快的应用程序,在推出后的头两个月内在全球范围内拥有1亿用户。OpenAI 聊天机器人已帮助超过1亿用户(每天约1300万人)根据请求编写文本、音乐、诗歌、故事和戏剧。它还可以回答测试问题,甚至可以编写软件代码。 推出三个多月后,它的受欢迎程度持续增长。根据数据智能平台Similarweb的数据,2月份聊天机器人的访问量增长了83%,日访问量达到约4500万次。 瑞银分析师在1月份的一份报告中写道:“在关注互联网领域的20年中,我们无法回忆起消费者互联网应用的快速增长。” 相比之下,TikTok在全球推出后用了9个月才达到类似的受众,而Instagram则用了2.5年多。