在手机上跑 AI 模型,谷歌这次是玩真的。
如果有一次 AI 运行体验能让你“眼前一亮”,那应该是这次谷歌推出的 AI Edge Gallery。
不需要网络,不经过云端,就在你手机里,一切开始于本地执行的 LLM 和 VLM。
简单理解:一个 GitHub 下载 APK 安装的应用,能在安卓设备上跑 Gemma 3 这样的端侧 AI 模型,安装完成后可离线使用。
iOS 暂不支持,但即将推出。
第一次使用 AI Edge Gallery,最抢眼的,不是它能做什么,而是它 用起来无需网络。
这意味着:你每打一行提示词,模型都是在你的手机本地运行,本地识别,本地生成,你的内容不会跑出这部手机。
无需登录,不传云端,不被监控。
相当于在你手机上运行的免费 “ChatGPT”。
降低了对运行环境的要求,也保证了数据和隐私安全。
安装 AI Edge Gallery 时一些需要手动操作。
APK 下载时认准 GitHub 官方仓库:
安装最新版本的 APK,首次运行后,需要下载或导入模型。
支持自定义模型导入,支持对象加速并调节运行参数。
三个核心功能:
AI Chat 本地聊天机器人,支持多轮对话,适合日常使用。此外,Performance Insights 功能则能让你认真感受不同机型对 LLM 模型的运行性能差异 —— 手机运行 AI 模型不再是概念,是一种可真实实施的工程。
虽然 AI Edge Gallery 还处于实验阶段,但这件事,足够倾向未来。
更多免费AI功能 云片AI:https://y-p.cc/?f=tt