AWS 與 Cerebras 正整合其硬體,透過 Amazon Bedrock 獨家提供一種解耦的 AI 推理解決方案,將提示處理與 Token 生成分別部署在 AWS Trainium 與 Cerebras CS-3 系統上。此次合作使 AWS 能夠提供專用的高效能 AI 硬體,解決大型模型的推理瓶頸,並可能降低企業的延遲與成本。
此次合作使 Cerebras 的專用高效能 AI 硬體能夠直接在 AWS 生態系統中取得。它為大型模型的推理瓶頸提供了一個實用的解決方案,可能降低企業大規模部署生成式 AI 應用的延遲與成本。
AWS 與 Cerebras 正整合其硬體,提供解耦的 AI 推理解決方案
該服務在 AWS Trainium 與 Cerebras CS-3 系統之間分離提示處理(預填充)與 Token 生成(解碼)
該解決方案將獨家透過 Amazon Bedrock 提供,以加速大型語言模型(LLM)的效能
該解決方案將獨家透過 Amazon Bedrock 提供,以加速大型語言模型(LLM)的效能
這是 Cerebras 的專用推理架構首次在主流雲端平台上提供
Sign in to save notes on signals.
登录