美国Akamai Technologies(以下简称Akamai)于当地时间3日宣布,将采购数千台NVIDIA Blackwell GPU,并将其作为云实例部署,以强化其全球分布式云基础设施。

这一举措将实现一个集成AI研发、微调及训练后优化的综合平台,使Akamai庞大的全球网络能够智能地将AI推理工作负载路由至最优计算资源。该架构旨在解决传统集中式数据中心带来的延迟和数据传输成本问题,支持高速推理。

Akamai引用调查显示,56%的组织认为延迟是大规模AI部署的最大障碍。通过将全球网络视为单一的低延迟基础设施,Akamai致力于弥合这一差距,提供支持物理AI和代理型AI的基础设施,满足现实世界快速决策的需求。

通过整合NVIDIA Blackwell AI基础设施,Akamai不仅能在专用GPU集群上处理AI工作负载并快速响应,还能在本地优化大型语言模型(LLM),保障数据隐私和地区合规性。此外,平台支持基于专有数据对基础模型进行微调和适应,提升特定任务的准确性。

该平台为平台工程师和开发者提供工具,使其能在靠近终端用户的位置构建和运行AI应用及数据密集型工作负载,从而实现高效吞吐。利用NVIDIA AI基础设施,Akamai的解决方案相比传统超大规模云基础设施,延迟降低最多2.5倍,AI推理成本最高减少86%。

该平台结合搭载NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的NVIDIA RTX PRO服务器、NVIDIA BlueField-3 DPU,以及分布于全球4400多个节点的Akamai分布式云计算基础设施和全球边缘网络构建。

Akamai已确认对NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的初期部署需求强劲,计划作为云基础设施战略的一部分,持续扩大GPU容量。