Rebellions公司已推出其ATOM™-Max服务器,旨在高效、大规模地支持AI推理。这款新服务器采用了先进的chiplet(小芯片)设计和高带宽互连技术,可为包括Llama4 Maverick 400B和Qwen3 235B等大型AI模型(如Mixture-of-Experts,简称MoE架构)提供Peta级性能。ATOM™-Max服务器致力于显著降低AI推理的能耗,以应对日益增长的可持续AI解决方案需求。
Rebellions推出ATOM™-Max服务器标志着AI推理硬件领域的一项重大进展。通过专注于Peta级性能和能效,特别是针对MoE模型,Rebellions正在解决大规模部署AI的关键瓶颈。这有望降低AI部署的运营成本,推动更广泛地采用先进AI模型,并为可持续AI基础设施设定新的标杆,从而影响AI硬件市场的竞争格局。
Rebellions推出ATOM™-Max服务器用于AI推理。
具备Peta级性能和高能效。
支持Llama4 Maverick 400B等大型MoE模型。
尽管Rebellions公司总部位于韩国,但ATOM™-Max服务器面向全球AI推理需求,目标客户为全球数据中心和AI研究机构。其对能效的关注尤其重要,因为全球对AI环境影响的担忧日益增加。
支持Llama4 Maverick 400B等大型MoE模型。
旨在降低AI部署的能耗。
登录后可保存信号笔记。
登录