您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
行业云 正文
发私信给陈悦琳
发送

0

营收增速36%背后:Akamai推理云正靠4400个边缘节点切入AI推理战场

本文作者: 陈悦琳   2026-04-24 18:08
导语:按需分配算力是Akamai下一道护城河。

云也在告别互联网时代。

这场告别发生在每一层:最底层的IaaS,算力形态从CPU转向GPU加速集群;PaaS层与新兴的MaaS层(模型即服务)融合,企业无需关心模型训练和部署,通过API即可调用AI能力;最贴近用户的SaaS层被一种全新的交互方式取代——给Agent布置一个任务,由它自主决策、独立完成。

AI带来的变量不止于此。当黄仁勋直言AI推理的规模将达到AI训练负载的10亿倍时,云的组织逻辑也随之发生改变。

推理时代,中心云正在输掉毫秒级算力竞赛

在过去,AI训练时代的一切都是集中的——数据、算力、模型,全部可以堆在少数几个超大规模数据中心里。

此时玩家之间比拼的,是谁能调集更多GPU、谁能扛住更长的迭代周期。但当AI的重心从训练转向推理时,这套集中式打法不得不面临物理瓶颈。

海量、实时、持续涌入的在线请求,是AI推理时代最明显的特征。它背后隐藏着用户对毫秒级响应的期待。

营收增速36%背后:Akamai推理云正靠4400个边缘节点切入AI推理战场 

Akamai亚太区云计算架构师总监 李文涛

Akamai亚太区云计算架构师总监李文涛指出,以首Token时延为例,大规模多用户在线游戏的玩家要求控制在15毫秒以内,电商个性化推荐约20毫秒,即便是容忍度最高的自动应答机器人,也需要在100毫秒左右完成响应。

然而,这并不是中心云擅长的领域。在集中式云架构下,一次推理请求往往需要跨越城市、国界甚至更远的距离进行传输,网络往返延迟动辄百毫秒,Token生成效率深受影响。

当新晋“顶流”Agent让持续的多轮交互成为常态,这种延迟更是被不断放大。

此外,在GDPR、各国数据主权法规的合规要求下,中心云“数据回传”模式明显存在风险。

因此在AI推理时代,比“算力储备还剩多少”更关键的问题是——如何能在离用户更近的距离高效使用算力?

于是,AI云市场的玩家们,给出了各自的答案。

以谷歌云、阿里云为代表的全栈云厂商试图让云更强。通过扩建更多区域、引入边缘节点、分层推理体系等方式,这类生态型玩家选择让中心云尽可能靠近用户。

而CoreWeave、Lambda Labs等垂直AI云玩家则将重心放在了计算效率的极致优化上。成本优先的部署策略决定了边缘并非它们的主战场。

此时,Akamai等深耕边缘的云厂商找到了自己的“舒适区”。“更近”和“高效”对它们而言,意味着两道更具体的考题:物理覆盖的密度与算力调度的精度。

从边缘到核心,Akamai的算力经济学

这正是Akamai的天然主场。

借由超4400个边缘节点,Akamai联合英伟达在去年10月推出专为AI推理设计的边缘云平台Akamai Inference Cloud。推理能力对于用户侧来说不再遥不可及。

市场的反馈来得比预期更快。在尚未全面上市时,Akamai推理云的测试名额就已售罄,并与美国一家大型科技公司签下四年2亿美元的服务协议。

据Akamai大中华区新任副总裁张轲介绍,在硬件方面,Akamai推理云选择了英伟达在AI推理场景下主推的一款高效经济的GPU——NVIDIA RTX PRO 6000 Blackwell。

张轲向雷峰网(公众号:雷峰网)表示,今年Akamai也将基于该卡构建全球最大规模的推理算力集群。

李文涛还补充道,该GPU虚拟机出方向流量成本只有0.005美元/GB,相比同类竞品,整机性价比高出一倍以上。

但他同时直言,不是所有的AI服务都需要顶级的GPU。

以Akamai推理云服务的韩国某游戏企业为例,李文涛指出该客户基于RTX PRO 6000 Blackwell系列GPU驱动NPC实时对话,结合RTX 4000 Ada GPU实时生成游戏图像,最终整体投入产出比优化约30%

这背后反映出,这家CDN创始者已经不满足于节点覆盖。在Token经济学盛行的当下,要想打造真正的护城河,必须有效组织且准确调度分散的算力。

而助力Akamai推理云精打细算的,正是一个月前刚刚引入的算力分级调度系统AI Grid。

基于Akamai流量调度专利和负载均衡技术,参考英伟达AI网格(AI Grid)实践,这一机制在回答如何按需分配的问题时如鱼得水:

边缘路由在识别小模型推理、数据预处理等轻量级推理请求后,就近分发给本地边缘算力即时处理;

分布式GPU层利用部署在全球人口密集区域的GPU节点承接中等规模任务;

更复杂的工作则交由高端GPU组成的集中式AI工厂来完成,从而避免所有流量集中涌入中心节点造成拥塞。

在此基础上,Akamai还叠加Serverless函数计算。据李文涛介绍,Akamai将FaaS的冷启动时间压缩至0.5毫秒,最高可快于其他公有云竞品1000倍。

此外,Akamai还应用了语义缓存技术,让相似请求无需重复调用GPU——某亚洲智能客服企业借此自动回答了超过60%的常见问题,减少Token消耗。

营收增速36%背后:Akamai推理云正靠4400个边缘节点切入AI推理战场 

Akamai大中华区副总裁 张轲

因此,也不难理解张轲透露的数字:在特定的分布式AI 推理场景,Akamai推理云相较友商已实现30%至60%不等的成本优势。

当前,Akamai也正根据不同区域市场的产业特点协同发力。李文涛尤为关注当下具身智能、自动驾驶汽车等物理AI场景的爆发。

他指出,这些领域恰恰对AI推理的时延、可靠性和安全性提出了最高要求,Akamai也将致力于推理任务中成本与性能之间的平衡。

当安全内置于AI推理

AI推理在提升应用智能水平的同时,也打开了全新的攻击面。

除了SQL注入、跨站脚本等经典漏洞依然存在之外,提示词注入、越狱攻击,以及通过MCP接口实现的数据滥用等AI原生威胁层出不穷。

这类攻击不再依赖代码漏洞,而是利用自然语言诱导模型“犯错”,而传统WAF对此几乎无能为力。

营收增速36%背后:Akamai推理云正靠4400个边缘节点切入AI推理战场 

Akamai大中华区售前技术经理 马俊

Akamai大中华区售前技术经理马俊告诉雷峰网,作为Akamai在2025年第一大收入支柱,贡献超50%营收的安全业务正从独立的营收板块深度融入AI推理云中,成为“无安全不推理”的默认配置:

AI防火墙通过拦截和过滤,建立“输入+输出”的双重防线;API安全态势中心能够自动发现和管理未纳管的AI接口,将其纳入统一防护体系,避免数据在无监控状态下流动。

对于更底层的风险,Akamai则通过Guardicore微分段技术第一时间识别并拦截攻击者在算力网络中的横向移动。

Akamai的安全策略甚至下沉到硬件层执行。如果主机被攻破,底层网络仍可借由英伟达的BlueField DPU维持隔离与控制能力 ,解决了OT、ICS等工业环境无法部署Agent级别防护的难题

当安全防护从边界防御内嵌至推理路径中,AI推理规模化落地才更有底气。

这一可靠性正转化为商业回报。Akamai 2025年财报显示,其云计算业务总营收达7.08亿美元,同比增长12%。其中,云基础设施服务(CIS)表现尤为突出,全年营收增长36%,第四季度增速更高达45%。

具体到北美以外的最大市场——大中华区,Akamai云计算业务实现了接近40%的年度增长率,增速高于全球平均水平。

而这也离不开张轲强调的Akamai一站式出海方案和本地完善的合作伙伴生态。

他还补充道,早在2010年就已经成立的大中华区团队已扩展至约200名员工,其中有70%从事售后服务相关岗位,保障云计算的平稳运行。

随着AI推理云成为Akamai在2026年的发展主轴,Akamai还要回答的是——在算力稀缺的当下,如何让有效算力的每一次调用都能持续达到快且准。

这才是云竞争的真正分野。

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说