更新时间:2026-02-16 00:13 来源:牛马见闻
谷歌称其 AI 聅自己的 AI 系统场攻击活动对 Gemini 的提示次数超过 10 万次
<p id="4AP56P35">IT之家 2 月 15 日?消息,当]地时间 2 月 12 日,谷歌称其 AI 聊天机器人 Gemini 正遭遇大量“蒸馏攻击”(distillation attacks)—— 即通过重复提问诱导聊天机器人泄露内部机制。</p> <p id="4AP56P36">谷歌表示,这些攻击者试图通过反复提问不断试探其模型输出模式与逻辑,探测其内部机制,从而“克隆”该模型或强化攻击者自己的 AI 系统,其中一场攻击活动对 Gemini 的提示次数超过 10 万次。</p> <p id="4AP56P37">谷歌在周四发布的报告中表示,这些攻击主要由“商业动机行为者”发起。公司判断其幕后人员多为希望获得竞争优势的 AI 私企或研究机构。谷歌发言人向 NBC News 表示,此次攻击源来自全球多个地区,但拒绝披露更多关于嫌疑方的信息。</p> <p class="f_center"><br></p> <p id="4AP56P39">谷歌威胁情报小组(Threat Intelligence Group)首席分析师约翰 · 霍特奎斯特(John Hultquist)指出,“针对 Gemini 的攻击规模表明,此类攻击很可能已开始或即将蔓延至小型企业的定制 AI 工具领域。”他将谷歌的处境形容为“煤矿里的<span search-type="3" search-href="newsapp://nc/search?entry=articleKeyword&word=%E9%87%91%E4%B8%9D%E9%9B%80">金丝雀</span>”,意味着大型平台的遭遇可能预示更广泛的行业风险。</p> <p id="4AP56P3A">谷歌强调,此类蒸馏攻击属于知识产权盗窃。科技公司已投入数十亿美元开发 AI 聊天机器人(IT之家注:指大语言模型),其核心模型的内部机制被视为高度重要的专有资产。尽管各大厂商已部署能够识别与阻断蒸馏攻击的机制,但由于主流大模型服务面向所有人开放,所以其本质上仍易受攻击。</p> <p id="4AP56P3B">谷歌还提到,多数攻击旨试图套取 Gemini 的“推理”算法,即其信息处理决策机制。霍特奎斯特警告,随着越来越多公司开始训练面向内部业务的定制 LLM,且这些模型可能包含敏感数据,蒸馏攻击的潜在危害会更大。他举例称,如果某家公司的 LLM 学习了其“100 年来交易的思维方式”,理论上也可能被蒸馏手段逐步提取出关键知识秘密。</p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901