检查您的 Chrome 用户数据文件夹。很有可能在那里有一个 4GB 的 AI 模型——一个您从未同意安装的模型。这个文件叫做 weights.bin,隐藏在一个名为 OptGuideOnDeviceModel 的文件夹中。这是 Gemini Nano 的权重文件,谷歌的本地语言模型。
删除它后 Chrome 会再次下载。
隐私研究员亚历山大·汉夫 发现了这种行为,当时他在一个新的 Chrome 个人资料上进行自动审核。通过使用 macOS 内核文件系统日志,他跟踪了 Chrome 创建临时目录、下载模型组件,并将完成的文件放置到磁盘上的过程。整个过程大约耗时 15 分钟。没有通知。没有提示。该个人资料在任何时候都没有收到人工输入。
同样的模式已在 Windows 11、Apple Silicon Mac 和 Ubuntu 上得到确认。那些在过去一年中发现无法解释的存储增量的用户现在找到了罪魁祸首。
它实际做了什么
Gemini Nano 为 Chrome 的本地 AI 功能提供动力:诸如“帮我写电子邮件”、“欺诈检测”、“智能粘贴”、“页面摘要”和“AI 辅助标签分组”。在 Windows 系统中,文件位于 %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\weights.bin。在 Mac 和 Linux 中,它在相应的 Chrome 个人资料目录中。
删除该文件夹并不能提供永久的解决方案。除非您通过 chrome://flags、设置中的系统>本地 AI 切换或在 Windows 上通过注册表编辑将 OptimizationGuideModelDownloading 设置为禁用,否则 Chrome 会在下次重启时恢复它。
Chrome 最近在地址栏中增加了一个显眼的“AI 模式”按钮。一个理性的用户看到这个按钮——在他们的磁盘上已经有一个 4GB 的本地模型——可能会认为他们的查询保留在本地。然而,它们并没有。AI 模式将每个查询路由到谷歌的云服务器。本地的 Gemini Nano 模型根本没有提供支持。
您正在为一个实际上并未私下使用的功能支付存储和带宽费用。
这合法吗,还是“合法”?
汉夫认为谷歌违反了欧盟隐私法。他的案件中心是 电子隐私指令第 5(3) 条——这是关于 cookie 同意横幅的相同条款——要求在用户设备上存储任何内容之前,必须“事先自愿、具体、知情和明确同意”。他还引用了 GDPR 第 5(1) 和第 25 条,涵盖透明度和设计隐私。
他还直接联系到他两周前发布的一个案例:Anthropic 的 Claude Desktop 在没有明确同意的情况下,在大约三百万用户机器上静默预授权浏览器自动化。他认为这是一种相同的模式,只是规模小得多。
然而,谷歌已经在 Chrome 中偷偷引入了 Gemini Nano 有一段时间了。人们只是没有注意到。“为了提供增强的浏览器体验,Chrome 使用本地 AI 模型来帮助驱动网页和浏览器特性,”谷歌在其 支持网站上表示。“Chrome 可能会在后台下载本地生成性 AI 模型,以便依赖这些本地模型的功能随时可用。如果您删除本地 AI 模型,只有依赖它们的功能将不可用。”
“在二月份,我们开始推出用户可以直接在 Chrome 设置中轻松关闭和删除模型的功能。一旦禁用,该模型将不再下载或更新。”该公司 告诉 Android Authority。
该公司表示,如果存储空间不足,模型会自动删除。谷歌没有解释的是,为什么用户没有先被询问。
谷歌自己的 Chrome 开发者文档 告诉第三方开发者,“最好提醒用户进行这些下载所需的时间。”这次,谷歌没有遵循自己的建议。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。