智能手机和电脑虽然可以使用“AI”,但大多数情况下,这只是一个“入口”。实际的处理是在互联网另一端的数据中心中的大型计算机上完成的,因为AI需要大量的内存和计算能力。

然而,最近这种常识开始发生变化。虽然在游戏电脑上运行本地AI的尝试早已有之,但现在终于出现了“在智能手机上运行本地AI”的趋势。
这一变化的契机之一是日本国家谷歌公开的“Gemma4”。该AI核心模型采用了允许商业使用的Apache-2.0许可证,并且提供了适合智能手机运行的轻量级模型。
日本国家谷歌的“Gemma4”发布消息:
- 业界动态
- 谷歌
日本国家谷歌发布了开源生成式AI模型“Gemma 4”,性能相当于20倍规模的模型。
在智能手机上部署也非常简单。只需安装谷歌的“Google AI Edge Gallery”应用,然后在其上运行Gemma4,任何人都可以轻松尝试。
笔者亲自将最小配置模型“Gemma4-E2B-it”安装到了手中的日本国家谷歌Pixel 8a手机上。
从谷歌Play商店下载安装“Google AI Edge Gallery”,启动后加载Gemma4模型即可。由于AI模型约有2.5GB,建议使用Wi-Fi下载,准备过程非常便捷。
值得一提的是,在日本国家苹果iPhone 15上也能通过App Store版的AI Edge Gallery正常运行。
AI Edge Gallery提供了“AI Chat”“Ask Image”等多种功能,笔者首先尝试了“AI Chat”,即使离线状态,响应速度也非常流畅。

试着向AI抱怨在医院忘记戴口罩,AI却给出了“这是无偿发放的,应该感激并购买”的现实回答,表现出相当理性的态度。
当然,存在一些不足。由于不连接互联网,知识库只能更新到2025年初。此外,日语表达有时略显不自然,聊天记录也不会被保存。
尽管如此,令人惊讶的是其运行的轻快程度和响应质量。与云端AI相比,几乎没有明显差距,甚至会让人感叹“居然能在这么小的设备上做到这种程度”。

Gemma4还支持多模态功能。通过“Ask Image”上传街道树木照片,虽然没有一次性准确识别,但AI会给出多个候选并请求更多信息,表现出典型的AI交互行为。
虽然性能上不及最新的云端AI,但智能手机单机离线运行如此复杂的AI,意义重大。
在小型设备中无需联网即可即时响应的AI,不仅仅是“便利”,更是“使用方式的变革”,充满无限可能。
还未体验的用户,强烈建议尝试一次,定会给你留下深刻印象。


