2024年8月11日日曜日

AIの消費電力を最大2500分の1に削減する「CRAM」を研究者が実証

https://gigazine.net/news/20240807-ai-energy-consumpiton-by-up-to-2500-times/


メモリセル内で直接計算を行うことにより、データ転送の発生を抑えて、コストを抑えながら高いパフォーマンスを実現するハードウェアデバイスを、ミネソタ大学ツインシティーズの研究者が実証しました。これにより、AIのエネルギー消費量を最大で2500分の1に削減することができます。

Experimental demonstration of magnetic tunnel junction-based computational random-access memory | npj Unconventional Computing
https://www.nature.com/articles/s44335-024-00003-3


Researchers develop state-of-the-art device to mak | Newswise
https://d.newswise.com/articles/view/814628/

'Crazy idea' memory device could slash AI energy consumption by up to 2,500 times | Live Science
https://www.livescience.com/technology/computing/crazy-idea-memory-device-could-slash-ai-energy-consumption-by-up-to-2-500-times

一般的な「コンピューティング」では、データは、データを処理するためのプロセッサと、データを格納するメモリの間を常に移動することになります。AIコンピューティングの場合、計算が複雑で大量のデータをやりとりすることになるので、特にエネルギーの消費量が多くなります。


国際エネルギー機関(IEA)の年次レポートによると、AIを含むデータセンターのエネルギー消費量は2022年時点では460TWhでしたが、2026年には1000TWhへと倍増する見込みです。この値は、日本の総消費電力に匹敵します。

0 コメント:

コメントを投稿