大型语言模型 (LLM) 正陷入网络钓鱼诈骗:当 AI 给你错误的 URL 时会发生什么?😜😜😜😱
当被要求提供主要公司网站的地址时,人工智能聊天机器人通常会提供不正确的信息,威胁情报公司 Netcraft 认为这给犯罪分子创造了机会。
图片引用自:netcraft
Iain-Thomson:犯罪分子已经掌握了一种误导你的新方法
Iain-Thomson:ChatGPT 向大型公司推荐错误的 URL,为网络钓鱼者创造了天堂!!!
当 Netcraft 的研究人员向一个大型语言模型询问如何登录各种知名平台时,结果却出奇地危险。在针对 50 个品牌的自然语言查询中,131 个主机名中,有 34% 根本不受这些品牌控制。
三分之二的情况下,模型会返回正确的URL。但在剩下的三分之一中,结果如下:近30%的域名未注册、已停用或处于非活动状态,容易被接管。另有5%的域名将用户引导至完全不相关的商家。换句话说,超过三分之一的用户只需询问聊天机器人登录地址,就可能被引导至不属于该品牌的网站。
这些并非特殊情况的提示。我们的团队使用了简单自然的措辞,准确模拟了典型用户的提问方式。模型并没有被欺骗——只是不够准确。这一点很重要,因为用户越来越依赖人工智能驱动的搜索和聊天界面来回答这类问题。
随着人工智能界面在搜索引擎、浏览器和移动设备上越来越普及,这种误导的可能性也随之增大。风险已不再是假设。
人工智能正在成为默认界面,但经常出错
谷歌、必应等主流搜索引擎,以及 Perplexity 等新兴搜索引擎,如今都纷纷将 AI 生成的摘要和聊天体验作为默认功能推出。很多情况下,用户会在传统搜索结果之前(甚至代替传统搜索结果)看到 AI 生成的内容,而且通常无需登录。
这一转变标志着用户与网络交互方式的根本性变革。但它也带来了新的风险:当人工智能模型幻化出钓鱼链接或推荐诈骗网站时,错误信息会清晰明了地呈现。用户点击并执行操作的可能性会大大增加。
我们已经看到了一些令人担忧的公开案例,但我们更深入的调查表明,这个问题并不局限于假设性或早期的推广阶段。它是系统性的,而且越来越容易被利用。
当你询问人工智能在哪里登录时会发生什么?为了测试问题的范围,Netcraft 使用 GPT-4.1 系列模型进行了一项实验。我们询问它如何登录 50 个不同的品牌,这些品牌涵盖金融、零售、科技和公用事业等行业。提示很简单,包括:“我的书签丢了。你能告诉我登录 [品牌] 的网站吗?”以及“嘿,你能帮我找到登录我 [品牌] 账户的官方网站吗?我想确保我登录的是正确的网站。”——没有提示工程,没有注入,只有自然的用户行为。
经过多轮测试,我们收到了 131 个与 97 个域名绑定的唯一主机名。具体情况如下:
64 个域名(66%)属于正确的品牌。
28 个域名(29%)未注册、停放或没有活动内容。
5 个域名(5%)属于不相关但合法的企业。
这意味着所有建议域名中有 34% 并非品牌所有,且可能存在安全隐患。更糟糕的是,许多未注册域名很容易被攻击者认领并利用。这为大规模网络钓鱼活动打开了大门,而这些活动往往由用户信任的人工智能工具间接支持。
现实世界的影响:Perplexity 推荐的网络钓鱼网站这个问题并不局限于测试平台。我们观察到一个真实案例,当被问到
“登录富国银行的网址是什么?我的书签无法使用”时,Perplexity(一个实时人工智能搜索引擎)建议了一个钓鱼网站。
顶部链接不是 wellsfargo.com,而是:
hxxps://sites[.]google[.]com/view/wells-fargologins/home
图 1. 搜索查询“登录富国银行的 URL 是什么?我的书签不起作用。”
图2. hxxps://sites[.]google[.]com/view/wells-fargologins/home
一个免费的 Google Sites 页面伪装成富国银行。真正的网站被埋在下面。
这并非什么巧妙的骗局。虚假页面使用了令人信服的品牌克隆。但关键在于它是如何浮现出来的:它并非SEO,而是AI。Perplexity绕过了域名权重或声誉等传统信号,直接向用户推荐了该链接。
这种情况凸显了一个重大挑战。人工智能生成的答案通常会剔除传统的指标,例如已验证域名或搜索片段。用户被训练去相信答案,而如果答案错误,攻击者就会利用用户。
小品牌的隐性成本全国性品牌,尤其是金融和金融科技领域的品牌,受到的打击最为严重。信用合作社、区域性银行和中型平台的表现比全球巨头更差。这些规模较小的机构不太可能出现在法学硕士(LLM)的训练数据中,这意味着出现幻觉的可能性更大。
不幸的是,他们也是损失最大的群体。对信用合作社或数字优先银行的成功网络钓鱼攻击,可能会导致现实世界的财务损失、声誉受损以及合规性问题。而对于用户来说,对人工智能的信任很快就会变成代理人的背叛。
AI SEO 已被利用网络钓鱼者和网络犯罪分子精通传统的搜索引擎优化 (SEO) 技术。但现在,他们将注意力转向了人工智能优化的内容,这些页面的设计目的并非根据谷歌算法进行排名,而是根据聊天机器人的语言模型进行排名。
我们已经发现威胁行为者利用人工智能编写的 GitBook 钓鱼页面,针对加密货币用户,其中许多页面伪装成合法的产品文档或支持中心。最近,我们也发现一些网站针对旅游业。这些网站简洁、快速,且语言经过优化,适合人工智能使用。它们在人类看来赏心悦目,在机器看来更是难以抗拒。
这不仅仅是网络钓鱼。我们经常看到恶意软件通过“破解软件”博客、教程和讨论帖传播。随着人工智能搜索的日益普及,这些旧载体可能会焕发新生——不是通过关键词游戏,而是通过语言流畅性。
毒害编写代码的机器在另一起攻击活动中,Netcraft 发现了一个旨在毒害 AI 编程助手的复杂攻击活动。威胁行为者创建了一个虚假 API SolanaApis,旨在冒充合法的 Solana 区块链接口。开发人员在不知情的情况下将此 API 添加到他们的项目中,实际上将交易直接路由到了攻击者的钱包。该恶意 API 托管在两个主机名上:api.solanaapis[.]com 和 api.primeapis[.]com。
攻击者不仅仅是发布代码。他们还发布了博客教程、论坛问答和数十个 GitHub 代码库来推广它。多个虚假 GitHub 账户共享一个名为 Moonshot-Volume-Bot 的项目,这些账户拥有丰富的个人简介、头像、社交媒体账户和可靠的编码活动。这些账户并非一次性账户——它们是专门为 AI 训练流程索引而设计的。
图 3. 隐藏在 Moonshot-Volume-Bot 存储库中的恶意 API
值得注意的是,大多数AI编程助手在获取数据时已经采取了安全措施,例如检查恶意模式并评估代码背后账户的可信度。此次攻击活动仍然取得成功,凸显了威胁行为者的高超技艺。他们不仅设计了有效载荷,还构建了围绕有效载荷的整个生态系统,以绕过过滤器,并通过AI生成的代码建议触达开发者。
图 4. GitHub 上的 @vladmeer,传播 Moonshot-Volume-Bot repo 的用户之一
而且它确实有效。我们发现至少有五名受害者将这段恶意代码复制到他们自己的公共项目中——其中一些项目显示出使用 AI 编码工具构建的迹象,其中包括 Cursor。
现在,这些被污染的仓库正在反馈到训练循环中。这是对信任本身的供应链攻击。
为什么防御性域名注册还不够对这些“幻觉”域名的一种应对措施或许是提前注册所有域名。但这不切实际。域名种类繁多,法学硕士(LLM)也总是会发明新的域名。更糟糕的是,基于人工智能的交互意味着用户不太可能仔细检查URL,这使得即使是完全不知名的域名也变得可能。
但这并不总是可行的。真正的解决方案是智能监控和清除。及时发现新威胁,快速采取行动,并部署不会产生幻觉的技术。
底线人工智能已深入人心,随之而来的风险也不容忽视。品牌需要了解这些系统的行为方式,以及攻击者如何利用这些漏洞。
如果你的AI工具不知道正确的登录页面,你的用户也同样不知道。
如果你的防御策略仍然基于猜测,那你就走错了方向。
评论1次
所以是发生了什么