随着OpenClaw等自主执行智能体的普及,人工智能应用正加速从“对话交互”向“任务执行”转变。企业在快速拥抱这一趋势的同时,也面临着算力浪费和安全合规等多重挑战。如何实现智能体的真正大规模、可持续部署,已成为行业关注的核心议题。

3月26日,在中关村论坛未来产业创新论坛上,蚂蚁数字大模型技术创新部总经理张鹏表示,OpenClaw的兴起将带来企业级AI范式的革命性转变,推动工业场景中大模型部署从“参数规模竞争”迈向“Token效率竞争”。

智能体如OpenClaw的快速应用反映了市场对自主执行智能体的强烈需求,但在实际工业环境中部署仍面临巨大挑战。由于对行业规则和业务流程理解不深,智能体在执行复杂任务时常反复调用工具,导致Token消耗远超实际产出。据报道,在某些高频场景下,OpenClaw的Token消耗成本是集成智能体的数十倍甚至上百倍,这种高投入低产出的模式难以支撑工业大规模应用的可持续性。

张鹏指出:“大模型工业化下半场的核心问题,不是模型参数规模的竞争,而是每个Token效率的持续提升。”他认为,企业应根据实际场景和需求,选择大模型与小模型结合的AI解决方案,以更低的算力成本实现更高的业务价值。

以金融场景为例,该领域每天需处理海量高频低延迟任务——快速识别意图、提取关键信息、检索排序等,要求高并发、快速响应和高准确率。传统行业推理大模型虽功能强大,但在此类场景中犹如“用大炮打蚊子”,成本高、响应慢且资源浪费严重。

张鹏表示:“行业真正需要的是既保证专业性、严谨性和合规性,又能实现最佳性价比和响应速度的AI解决方案。”他认为,大参数模型在复杂推理和深度分析方面表现更优,小参数模型则在高频小任务场景中具备更低延迟和更高性价比。两者结合的方案能更高效、经济地解决实际问题。

在中关村论坛上,蚂蚁数字发布了轻量级金融专用模型“百灵DT-Fin-Mini-2.5”,这是百灵DT系列大模型的首款产品。据介绍,该模型基于百灵2.5最新混合线性注意力架构,采用轻量化MoE设计,针对金融领域高并发低延迟任务进行了优化,既保持专业深度,又将推理成本压缩至适合大规模部署的水平。与业内同类主流通用模型相比,其推理速度提升100%,处理同等任务的硬件成本显著降低,为金融机构带来切实的降本增效价值。

事实上,随着AI智能体加速渗透核心工业场景并执行实际任务,大模型与小模型结合已成为行业趋势。近期,OpenAI也推出了聚焦低延迟和高性价比的两款小模型GPT-5.4mini和nano,作为执行层的主要智能体。

张鹏表示,技术发展最终将回归工业效率的理性需求。未来竞争阶段,Token效率将成为衡量企业级AI价值的核心指标。蚂蚁数字将持续聚焦企业级通用人工智能,进一步推出百灵DT大模型企业版及行业版本,加速智能体在复杂企业场景中的大规模部署。