我们在上周四曾提及Gemma 4的发布情况,经过周末的持续推广和用户好评,Gemma 4在首周下载量已达到约200万次!
作为对比,Gemma 3在过去一年累计下载量为670万次,Gemma 2自2024年6月发布以来下载量为140万次,而Qwen 3.5自旗舰模型发布1.5个月以来,下载量已达2700万次。
伦敦时间三天后将举办Gemma 4的主题演讲,感兴趣的读者可以提前收藏观看链接。
此外,Hermes Agent也引发了广泛关注。Turing Post发布了关于Hermes与OpenClaw的详细对比分析,探讨了两者在架构和业务模式上的差异。
AI Twitter热点回顾
Gemma 4的快速本地化应用及开放模型的设备端时刻
-
Gemma 4引领了“本地优先”趋势,成为Hugging Face上最受关注的模型。用户不仅关注其排行榜表现,更看重其实用性。多位用户展示了Gemma 4在苹果设备上的运行效果,例如在iPhone 17 Pro上以约40 tokens/s的速度运行,Red Hat也发布了量化版本的Gemma 4 31B模型,支持多种格式和指令跟随评测。
-
商业层面,Gemma 4的本地运行对付费聊天订阅和云端依赖形成压力。部分用户认为本地模型已足够替代部分Claude订阅服务。Ollama推出了基于NVIDIA Blackwell GPU的Gemma 4云服务,支持OpenClaw和Claude风格的工作流,显示出开放模型成功依赖于下游系统的广泛支持。
Hermes Agent的自我改进循环与开放追踪数据的推动
-
Hermes Agent通过持久记忆、自我生成和优化技能,赢得了用户关注。Nous Research发布的Manim技能能生成技术动画,提升了代理的实用性。社区工具如Hermes HUD实现了流程映射和审批管理,多个WebUI集成也相继出现。
-
与OpenClaw的对比主要在于技能生成方式、记忆结构和控制机制,Hermes强调自我改进循环,用户反馈其上手更容易,减少手动调试。
-
开放代理数据成为长期趋势,pi-share-hf工具支持发布带有隐私保护的编码代理会话数据集,社区呼吁通过众包方式构建开放代理数据集,推动从真实使用轨迹中学习。
新研究动态:强化学习、路由机制、代理评估及小型专用模型
-
强化学习效率持续提升,如阿里巴巴Qwen提出的FIPO方法显著提高推理长度和准确率,OLMo 3实现异步RL带来4倍吞吐量提升。
-
代理评估逐步转向专家级、开放式工作流,关注流程完成度、歧义处理和成本效率。
-
小型专用模型表现突出,如1.3M参数的SauerkrautLM在实时控制任务中超越大型API模型,Falcon Perception视觉语言模型在MacBook上表现优异,显示专用模型结合系统优化的优势。
OpenAI与Anthropic:政策信号、治理审查与计算经济学
-
OpenAI重点发布了“智能时代工业政策”框架,提出公共财富基金、可携带福利、32小时工作周试点、AI权利及安全审计等政策,表明其将超智能视为当前政策问题。
-
同时,关于Sam Altman及OpenAI治理的调查报道引发热议,涉及内部管理、董事会操作及安全资源配置等问题。
-
Anthropic宣布与谷歌及博通达成多千兆瓦TPU容量协议,预计2027年上线,支持Claude模型训练与服务,营收已突破300亿美元,显示前沿实验室的资本和计算资源竞争激烈。
系统与基础设施:更快的强化学习、更高效的MoE解码及更优GPU/边缘工具
-
多项系统优化显著提升性能,如Blackwell GPU上MoE令牌生成速度提升1.84倍,MuOn优化器将支持消费级Blackwell卡,OLMo 3的异步RL实现4倍吞吐量。
-
苹果及本地生态系统持续完善,MLX移植的ESM-2蛋白质建模工具开源,LLM架构画廊新增RSS订阅,免费笔记本支持训练运行500+模型,Hugging Face的超大规模指南整合多种并行技术,支持512 GPU扩展。
互动热帖精选
- Gemma 4在iPhone 17 Pro上的本地演示引发广泛关注。
- 本地开放模型逐渐替代部分付费订阅服务。
- “开源不可避免”的观点获得共鸣。
- Claude服务的宕机和订阅模式引发用户不满。
- OpenAI治理调查成为焦点话题。
- Anthropic的计算资源扩展和营收增长显示行业竞争加剧。


