CoreWeaveは、Andrej Karpathy氏のAutoResearchエージェントの高速化のため、H100/H200 GPUクラスターを提供しました。これにより、エージェントは8時間で700件以上の実験を実行可能になり、逐次実行と比較して9倍の高速化を達成しました。エージェントは、異種ハードウェアの活用法を学習し、検証にはH200、アイデアのスクリーニングにはH100を使用することで、AI研究の効率において顕著な進歩を示しました。
これは、高度なAI研究開発に不可欠な高性能・スケーラブルなGPUインフラを提供するCoreWeaveの能力を示しています。Karpathy氏の実験の加速成功は、複雑な計算タスクを処理する上でのプラットフォームの効果を浮き彫りにし、より多くのAI研究者や企業をサービスに惹きつけ、AIクラウド市場における同社の地位を確固たるものにする可能性があります。
CoreWeaveのH100/H200クラスターにより、AI実験で9倍の高速化を実現。
Andrej Karpathy氏のエージェントが8時間で700件以上の実験を実行。
エージェントが効率化のために異種ハードウェアの活用法を学習。
この出来事は、世界的な技術開発の重要な構成要素であるAI研究インフラの進歩を示すものであり、世界的に関連性があります。H100やH200といった先進的なGPUの使用は、最先端のAI機能へのコミットメントを示唆しています。
エージェントが効率化のために異種ハードウェアの活用法を学習。
AI研究インフラの進歩におけるCoreWeaveの役割を実証。
Sign in to save notes on signals.
ログイン