Transformers.js v4 浏览器本地运行 AI 模型

它能帮你做什么:3 个最直接的场景

先不讲原理,先说你能用它做什么:

场景一:隐私敏感的文字处理
假设你是律师,需要用 AI 帮你整理合同里的关键条款。但你不敢把客户合同上传到 ChatGPT——万一数据泄露怎么办?用 Transformers.js,AI 在你的浏览器里跑,合同内容一个字都不会离开你的电脑。

场景二:离线使用 AI
在飞机上、地铁里、网络不好的地方,你照样能用 AI 翻译、总结、问答。模型第一次加载后会缓存在浏览器里,之后完全离线可用。

场景三:前端开发者的新玩法
如果你是做网页的,以前想在网站里加 AI 功能,必须搭后端服务器、申请 API、处理密钥安全……现在可以直接在前端页面里嵌入 AI,用户打开网页就能用,你不需要付一分钱服务器费。

Transformers.js v4 到底是什么

一句话版本:它是一个让 AI 模型在浏览器里运行的 JavaScript 库,由 Hugging Face(全球最大的开源 AI 模型平台)开发和维护。

类比一下:你可以把它想象成一个"AI 翻译官"。原来的 AI 模型是用 Python 写的,只能在服务器上跑;Transformers.js 把这些模型"翻译"成浏览器能理解的格式,让它们直接在你的 Chrome 或 Edge 里运行。

v4 版本最大的变化是引入了 WebGPU 加速。WebGPU 是浏览器调用显卡的新标准(就像游戏用显卡渲染画面,现在 AI 也能用显卡加速计算)。有了 WebGPU,浏览器里跑 AI 的速度比之前快了 3-5 倍,终于到了"实际可用"的水平。

为什么现在突然这么多人在讲它

两个原因:

第一,WebGPU 终于普及了。 Chrome 113(2023 年)开始默认支持 WebGPU,Edge 紧随其后。到 2026 年,全球超过 80% 的桌面浏览器都支持 WebGPU。这意味着 Transformers.js 的用户基础从"少数尝鲜者"变成了"几乎所有人"。

第二,AI 模型越来越小。 以前在浏览器里跑 AI 是天方夜谭,因为模型动辄几十 GB。但现在有了 Gemma 4(我们之前写过它)、Qwen 等小参数模型,几百 MB 就能跑出不错的效果,浏览器完全装得下。

这两个条件同时成熟,让"浏览器 AI"从实验室玩具变成了真正可用的工具。

它会影响谁

对普通用户: 短期内影响不大,你还是会用 ChatGPT 和 Claude——它们的模型更大、能力更强。但你会越来越多地遇到"不需要登录、直接在网页里用 AI"的产品,背后很可能就是 Transformers.js。

对前端开发者: 这是一个很大的机会。以前做 AI 产品必须懂后端,现在纯前端也能做。如果你会写 HTML 和 JavaScript,你已经具备了做一个完整 AI 应用的所有技能。

对隐私敏感的行业: 医疗、法律、金融这些行业,数据合规是大问题。"AI 在本地跑、数据不出门"这个特性,对他们来说价值极高。预计会有越来越多的企业内部工具采用这个方案。

可能的担忧: 浏览器里的 AI 能力终究有限,复杂任务还是需要云端大模型。另外,第一次加载模型需要下载几百 MB 的文件,网速慢的用户体验不好。

现在你可以做什么

如果你只是好奇,可以去 Hugging Face 的演示页面(huggingface.co/spaces)搜索"transformers.js",有很多直接在浏览器里跑的 AI 演示,不需要注册账号,打开就能玩。

如果你是开发者,Transformers.js 的 GitHub 仓库(github.com/huggingface/transformers.js)有完整的入门文档,从"在网页里加一个情感分析功能"到"搭建完整的本地聊天机器人"都有示例代码。

如果你对本地跑 AI 感兴趣,也可以看看这篇 Ollama 教程——Ollama 是在电脑本地跑大模型的另一种方式,适合想要更强能力的用户。

AI 正在从"云端服务"变成"本地能力"。Transformers.js v4 不是终点,而是这个趋势的一个信号。