AI処理用プロセッサなどの開発を進めるテクノロジー企業のCerebrasが、高速な推論サービス「Cerebras Inference」を発表しました。Cerebras InferenceはNVIDIAのH100を用いた推論サービスと比べて22倍高速で、コストは5分の1に抑えられるとのことです。Inference - Cerebrashttps://cerebras.ai/inferenceIntroducing Cerebras Inference: AI at Instant Speed - Cerebrashttps://cerebras.ai/blog/introducing-cerebras-inference