Source ContextRebellions Newsroom
Rebellions 推出了其 ATOM™-Max 伺服器,旨在高效、大規模地支援 AI 推論。這款新伺服器採用先進的 chiplet 和高頻寬互連技術,可為包括 Llama4 Maverick 400B 和 Qwen3 235B 等專家混合模型 (MoE) 在內的大型 AI 模型提供 Peta 級效能。ATOM™-Max 伺服器旨在顯著降低 AI 推論的能耗,以滿足對永續 AI 解決方案日益增長的需求。
阅读完整原文rebellions.ai
来源层级:Wire
分类:规范
原始日期:Mar 23, 2026
发布时间:Mar 23, 2026
日期可信度:提取
重要性分析
Rebellions 推出 ATOM™-Max 伺服器,象徵著 AI 推論硬體的一大進展。透過專注於 Peta 級效能和能源效率,特別是針對 MoE 模型,Rebellions 正解決部署大型 AI 的關鍵瓶頸。這可能導致 AI 部署的營運成本降低,使更廣泛的高階 AI 模型得以採用,並為永續 AI 基礎設施設定新的標竿,進而影響 AI 硬體市場的競爭態勢。
核心要點
1
Rebellions推出ATOM™-Max服务器用于AI推理。
2
具备Peta级性能和高能效。
3
支持Llama4 Maverick 400B等大型MoE模型。
区域角度
雖然該公司總部位於韓國,但 ATOM™-Max 伺服器專為滿足全球 AI 推論需求而設計,目標客戶為全球的資料中心和 AI 研究機構。其對能源效率的關注,在全球對 AI 環境影響日益擔憂的背景下,顯得尤為重要。
What to Watch
1
支持Llama4 Maverick 400B等大型MoE模型。
2
旨在降低AI部署的能耗。
基于企业官方来源。SigFact 从经验证的企业公告中提取并结构化信号。
My Notes
Sign in to save notes on signals.
登录