Rebellionsは、AI推論を効率的かつ大規模に処理するための「ATOM™-Max」サーバーを発表した。この新サーバーは、先進的なチップレットと高帯域幅インターコネクトを活用し、Llama4 Maverick 400BやQwen3 235BといったMixture-of-Experts(MoE)アーキテクチャを含む大規模AIモデル向けにペタスケール性能を提供する。ATOM™-Maxサーバーは、AI推論に伴うエネルギー消費を大幅に削減し、持続可能なAIソリューションへの高まる需要に対応することを目指している。
RebellionsによるATOM™-Maxサーバーの登場は、AI推論ハードウェアにおける重要な進歩を示唆している。ペタスケール性能とエネルギー効率、特にMoEモデルに焦点を当てることで、Rebellionsは大規模AI展開における重要なボトルネックに対処している。これにより、AI導入の運用コスト削減、先進AIモデルのより広範な採用の促進、そしてAIハードウェア市場における競争力に影響を与える持続可能なAIインフラの新たな基準設定につながる可能性がある。
RebellionsがAI推論向け「ATOM™-Max」サーバーを発表。
ペタスケール性能と高いエネルギー効率を特徴とする。
Llama4 Maverick 400Bなどの大規模MoEモデルをサポート。
同社は韓国に拠点を置いているが、ATOM™-MaxサーバーはグローバルなAI推論ニーズに対応するように設計されており、世界中のデータセンターやAI研究機関をターゲットとしている。特にエネルギー効率への注力は、AIの環境負荷に対する世界的な懸念の高まりを考慮すると、関連性が高い。
Llama4 Maverick 400Bなどの大規模MoEモデルをサポート。
AI導入におけるエネルギー消費削減を目指す。
Sign in to save notes on signals.
ログイン