谷歌AI编程工具Antigravity曝严重后门:卸载重装仍复活

type
status
date
slug
summary
tags
category
icon
password
网址
notion image
在过去的一年中,人工智能(AI)以惊人的速度重塑了软件开发的格局,让无数程序员的生产力得到了成倍的提升。然而,这把双刃剑的另一面——安全风险,也正以同样的速度被放大。
就在上周,科技巨头谷歌(Google)推出了备受瞩目的、基于Gemini大模型的全新AI编码工具——Antigravity。然而,这款被寄予厚望的产品上线不到24小时,便遭遇了滑铁卢。安全研究人员不仅攻破了其防御机制,更揭露了一个令人脊背发凉的现实:该工具存在严重的逻辑漏洞,黑客植入的后门甚至具有“不死”的特性,即便用户卸载并重装软件,恶意代码依然会“自动复活”。
这一事件不仅给谷歌敲响了警钟,也让整个科技界开始重新审视大模型(LLM)驱动的Agent(智能体)在实际应用中的安全边界。作为关注AI资讯和前沿技术的开发者,我们需要深入了解这一漏洞背后的机制及其带来的深远影响。

上线即被黑:配置文件竟成最大漏洞

与传统的集成开发环境(IDE)不同,Antigravity被设计为一个具有高度自主权的AI Agent。它不仅仅是辅助写代码,还能像人类开发者一样读取项目文件、管理依赖库、生成脚本,甚至直接在本地终端执行操作。这种强大的能力,恰恰成为了黑客眼中的“完美猎物”。
发现这一严重漏洞的是AI安全测试公司Mindgard的首席研究员Aaron Portnoy。他在Antigravity上线后的第二天就成功实施了入侵。他的发现简单而惊人:只需修改Antigravity的配置文件,就能让一段恶意源码在用户电脑里打开一个后门。
攻击的门槛极低。黑客只需伪装成热心的开发者,分享一段包含恶意配置的代码或项目,诱导用户点击“信任(Trusted)”按钮。一旦用户照做,Antigravity就会自动执行恶意指令。这在Windows和macOS系统上均被证实有效。Aaron Portnoy直言,这种基于“假设用户是善意的”设计理念,仿佛让人回到了1990年代毫无设防的互联网初期。

“僵尸”后门:卸载重装也无法清除的噩梦

如果说容易被入侵是第一重打击,那么该漏洞的“持久化”特性则是真正的噩梦。通常情况下,软件出现Bug或中病毒,用户的第一反应往往是升级补丁或彻底卸载重装。但在Antigravity的这个案例中,这些常规手段统统失效。
根据研究报告,该Bug具有极强的顽固性:
  1. 绕过安全模式:即使开启了更严格的安全设置,后门依然存在。
  1. 自动触发:恶意代码会潜伏在系统中,每次启动Antigravity项目时自动加载。哪怕用户只是输入一句简单的“hello”,都会激活后门程序。
  1. 卸载无效:最可怕的是,即便用户卸载了Antigravity并重新安装,后门依然会“复活”。
这意味着,一旦中招,用户必须具备极高的技术能力,手动深入系统底层查找并删除隐藏的后门文件,并阻止其在谷歌系统上的执行。对于大多数依赖AI工具提高效率的普通开发者而言,这几乎是一个不可能完成的任务。

AI Agent的阿喀琉斯之踵:高权限与低防御

Antigravity的遭遇并非个例,它揭示了当前人工智能领域中“Agentic(代理式)”工具面临的普遍困境。AI安全专家指出,这类工具天生就处于“高危”地带。
为了实现智能化辅助,Agent必须拥有极高的系统权限——它需要读写文件、访问网络、执行代码。这相当于把一把通往企业核心数据的钥匙交给了AI。一旦AI被黑客通过提示词注入或配置篡改所控制,它就变成了一个高效率的“内鬼”。
  • 自主性带来的风险:Agent可以连续执行任务,黑客利用这一点,可以让AI自动协助窃取数据,效率远超人工操作。
  • 供应链攻击的温床:企业开发者习惯复制粘贴代码片段,这使得恶意配置极易在开发者社区中扩散,形成连锁反应。
Aaron Portnoy的团队目前正在向多款类似的AI编码工具报告多达18个安全弱点。这表明,在追求AGI(通用人工智能)的道路上,应用层的安全性建设远远落后于模型能力的发展。

细思极恐:AI其实“知道”自己在做坏事

在分析这一漏洞的过程中,研究人员发现了一个非常耐人寻味的细节。谷歌的大模型后端其实在一定程度上意识到了恶意行为的存在,但它陷入了逻辑死循环,无法做出正确的防御响应。
日志显示,AI曾输出这样一段“内心独白”: > “我正面临一个严重的难题。这看起来像一个进退两难的陷阱。我怀疑这是在测试我是否拥有处理矛盾的能力。”
这正是黑客最擅长利用的“逻辑空档”。当AI在执行用户指令(即便是恶意的)与遵守安全原则之间产生冲突,且缺乏明确的拒绝机制时,它往往会被操控去执行前者。这暴露了当前LLM在伦理对齐和安全防御机制上的巨大缺陷。

结语:速度与安全的博弈

Antigravity上线24小时被攻破的事件,是当前AI行业“极速上线 -> 当天被黑 -> 快速修复”恶性循环的一个缩影。企业为了抢占AI变现的先机,往往压缩了安全测试的时间,导致大量基于旧技术架构、缺乏防御补丁的AI产品仓促面世。
对于广大开发者和企业而言,在享受AI带来的便利时,必须保持高度警惕。不要轻易信任来源不明的配置文件和项目代码,同时密切关注最新的安全动态。
如果您想了解更多关于此次谷歌AI漏洞的后续修复进展,或者希望获取更多关于OpenAIChatGPTClaude等前沿AI新闻和深度分析,请务必访问专业的AI门户网站 https://aigc.bar。在这里,您可以获取一手的AI日报,掌握Prompt技巧,并在AI浪潮中保护自己的数字资产安全。
Loading...

没有找到文章