中国に拠点を置くAI開発企業のDeepSeekは、2025年1月に低コストかつ高性能なAIモデル「DeepSeek-R1」を発表して大きな注目を浴びました。そんなDeepSeekがAI開発に関連する複数の技術を連日オープンソース化しています。





DeepSeekは2025年2月21日に「私たちはAGI(汎用人工知能)の実現を目指す小さなチームです。来週から5つのリポジトリをオープンソース化します」「オープンソースコミュニティの一員として、共有するすべてのコードが(AGI実現への)旅を加速させるものになることを信じています」と述べ、各種技術のオープンソース化を宣言しました。そして、2025年2月24日には最初のリポジトリが公開され、その後も1日に1個ずつリポジトリが公開されています。

◆1日目:FlashMLA

2025年2月24日(月)に連続企画の第1弾としてオープンソース化された技術が「FlashMLA」です。FlashMLAはNVIDIAのHopperアーキテクチャベースのGPU向けに開発されたMLAデコードカーネルで、可変長シーケンスの処理を高速化できます。





FlashMLAのリポジトリは以下のリンク先で公開されています。

GitHub - deepseek-ai/FlashMLA

https://github.com/deepseek-ai/FlashMLA



◆2日目:DeepEP

2025年2月25日(火)にはMixture of Experts(MoE)モデルのトレーニングと推論を高速化できる通信ライブラリ「DeepEP」が公開されました。MoEは「複数の専門家(エキスパート)モデルをサブモデルとして使用し、各サブモデルの出力をまとめて最終的な結果として出力する」という処理を行うアーキテクチャで、DeepEPはサブモデル同士の通信の高速化に寄与するそうです。





DeepEPの詳細情報は以下のリンク先で確認できます。

GitHub - deepseek-ai/DeepEP: DeepEP: an efficient expert-parallel communication library

https://github.com/deepseek-ai/DeepEP



◆3日目:DeepGEMM

AIに関連する計算処理では「行列の乗算(GEMM)」という処理が頻繁に実行されます。このGEMMを高速化できる技術が2025年2月26日(水)にオープンソース化された「DeepGEMM」です。





DeepGEMMのソースコードは以下のリンク先で公開されています。

GitHub - deepseek-ai/DeepGEMM: DeepGEMM: clean and efficient FP8 GEMM kernels with fine-grained scaling

https://github.com/deepseek-ai/DeepGEMM