メモリセル内で直接計算を行うことにより、データ転送の発生を抑えて、コストを抑えながら高いパフォーマンスを実現するハードウェアデバイスを、ミネソタ大学ツインシティーズの研究者が実証しました。これにより、AIのエネルギー消費量を最大で2500分の1に削減することができます。

Experimental demonstration of magnetic tunnel junction-based computational random-access memory | npj Unconventional Computing

https://www.nature.com/articles/s44335-024-00003-3



Researchers develop state-of-the-art device to mak | Newswise

https://d.newswise.com/articles/view/814628/

'Crazy idea' memory device could slash AI energy consumption by up to 2,500 times | Live Science

https://www.livescience.com/technology/computing/crazy-idea-memory-device-could-slash-ai-energy-consumption-by-up-to-2-500-times

一般的な「コンピューティング」では、データは、データを処理するためのプロセッサと、データを格納するメモリの間を常に移動することになります。AIコンピューティングの場合、計算が複雑で大量のデータをやりとりすることになるので、特にエネルギーの消費量が多くなります。

国際エネルギー機関(IEA)の年次レポートによると、AIを含むデータセンターのエネルギー消費量は2022年時点では460TWhでしたが、2026年には1000TWhへと倍増する見込みです。この値は、日本の総消費電力に匹敵します。

世界のデータセンターが消費する電力は2026年までに日本の消費電力に匹敵するとの予測、AIや仮想通貨で倍増するエネルギー需要は原子力などの「クリーン」な電力がカバーすると国際エネルギー機関 - GIGAZINE



こうした状況を改善する可能性があるのが、ミネソタ大学が研究する「CRAM(計算ランダムアクセスメモリ)」です。研究は20年以上前から行われているもので、アメリカ国防高等研究計画局(DARPA)やアメリカ国立標準技術研究所(NIST)、アメリカ国立科学財団(NSF)、そしてネットワーク機器メーカー・Ciscoから資金援助を受けているとのこと。

論文の筆頭著者であるジアン=ピン・ワン教授は「20年前に、メモリセルを直接コンピューティングに使用するというコンセプトはクレイジーだと思われていました。2003年以来、成長を続ける学生グループと、ミネソタ大学に設立された物理学、材料科学・工学、コンピューター科学・工学、モデリングとベンチマーク、ハードウェア制作などを横断した研究チームのおかげで、我々は前向きな結果を得ることができました。今では、この種の技術が実現可能なものであり、技術に組み込む準備ができているということを実証しています」と述べました。

CRAMは、ワン教授らが取り組み特許も取得している「磁気トンネル接合(MTJ)」に基づく長期的な取り組みの一部で、従来のメモリのように電荷に依存するのではなく、電子スピンを利用してデータを格納することによって、従来のメモリチップよりも高速かつ高エネルギー効率を実現しています。

また、さまざまなAIアルゴリズムにも対応できるので、AIコンピューティングをさらに柔軟でエネルギー効率のよいものにする解決法になると考えられています。実際に、スカラー加算や行列乗算といった主要なAIタスクを行ったところ、0.47μJのエネルギーを使用して434ナノ秒で実行できたとのこと。これは従来のメモリシステムと比べて約2500分の1というエネルギー削減になるとのことです。