光を当てると冷える『光学冷却』
半導体を京都大学が発表しました。
https://www.youtube.com/watch?v=sy-FNOxqZBM
https://www.facebook.com/masahiro.ishizuka.54/videos/2249160418869177
https://www.linkedin.com/embed/feed/update/urn:li:ugcPost:7243489187239239680
https://news.yahoo.co.jp/articles/84b688e5d8df67848e207500bd281b1308de8ca2
https://news.yahoo.co.jp/articles/84b688e5d8df67848e207500bd281b1308de8ca2
AI(人工知能)ワークロードの需要に対応するためにデータセンターが増加する中、システムを冷却する革新的な方法の開発がますます重要になってきている。 ZutaCoreのダイレクトチップ冷却技術「HyperCool」[クリックで拡大] 出所:ZutaCore チップの冷却に関して利用可能なソリューションは、システムの冷却またはシステムからの熱の除去に分けられる。
電力効率を高めてコストを大幅に抑える電源モジュール
Infineon Technologies(以下、Infineon)のパワーおよびセンサーシステム部門でパワーICおよびコネクティビティシステム担当ゼネラルマネジャーを務めるAthar Zaidi氏は、米国EE Timesのインタビューに対し、「管理しなければならない熱源は2つある。1つは、コンピューティングエンジンであるプロセッサ自体だ。また、プロセッサ周辺の電力管理ソリューションからも多くの熱が発生する。その効率は100%ではない。電圧や電流の変換を行うたびに効率は低下し、その分の熱が発生する」と語った。 Zaidi氏は、「電力管理と冷却は密接に関係している。熱を除去するには冷却ソリューションが必要だが、それにもエネルギーが必要である。つまり、これはもろ刃の剣だ。コンピューティングおよび、そのための電力供給でも電力が消費され、さらにシステムから熱を除去するためにも電力が消費される」と指摘した。 Zaidi氏は、「冷却と電力管理は密接な関係にあり、データセンターのエネルギーフットプリントを管理する上で冷却は非常に重要だ。データセンターを建設するには、施設の利用可能なエネルギー量の割り当てを定めた許可が必要となるため、エネルギーフットプリントはデータセンターの建設場所にも影響を与えうる」と述べている。データセンター所有者が予算の範囲内で何をするかは所有者次第だが、その範囲によって総所有コスト(TCO)と投資収益率が決まる。 Infineonは2024年2月、電気性能と熱性能の両方を向上させたデュアルフェーズ電源モジュール「TDM2254xDシリーズ」を発売した。同モジュールによってデータセンターはGPUの高い電力需要に対応し、より高効率の運用とTCOの大幅な削減を実現できるという。 コンピューティングの高密度化が進むにつれ、冷却および熱管理ソリューションを小型化する必要がある。TDM2254xDシリーズのサイズは約10mm2で、高さは8mm以下だ。Zaidi氏は、「電力に関しては、効率だけでなく熱管理も重要だ」と述べている。 同氏は、「AIワークロードに関しては、電力がますますボトルネックになっている。これまでコンピューティングがボトルネックとされていたのは、消費電力が1kWを超えるものがなく、電力がボード上で処理できていたからだ」と付け加えた。 「しかし、NVIDIAの『Grace Blackwell』のようなプラットフォームでは、消費電力が3.3kWに達しているため、空冷だけでは不十分だ。全体を液冷する必要がある。それが電力管理のトポロジーを定義する」(Zaidi氏)
水がいらない低リスクな液冷技術
チップを冷却する方法は一つではない。Lenovoは、第6世代の液冷技術「Neptune」を発表した。同技術は、「ThinkSystem V3」と「ThinkSystem V4」ポートフォリオ全体に採用されるという。同社は10年以上前に液体を利用した独自の冷却技術を発表している。同技術は、従来の空冷システムと比較して消費電力を最大40%削減できるという。 Neptuneは直接水冷ソリューションで、温水のループを再利用してデータセンターシステムを冷却し、全てのサーバコンポーネントを低温に保つ。最新バージョンには、新しいGPUコールドプレート設計と、強化されたコールドプレート冷却ファン、フロー設計が含まれる。 一方、ZutaCoreは、ダイレクトチップ冷却技術「HyperCool」に、単相液体によるダイレクトチップ方式ではなく、水を使用しない、絶縁性冷媒によるアプローチを選択した。ZutaCoreの製品担当エグゼクティブバイスプレジデントを務めるShahar Belkin氏は、EE Timesのインタビューで、「液体を使用するのは難しい場合がある」と述べている。 「液体が意図した場所にとどまる保証はない。1台のゲーミングPCであれば制御可能だが、数百のCPUと数千のコネクターやチューブが詰め込まれたラックを設置したデータセンターでは極めて難しく、1カ所の水漏れがITシステムに極めて大きいダメージを与えることになる」(Belkin氏) Belkin氏は、「ZutaCoreは電気を通さない、絶縁性冷媒を使用している。また、液体をコールドプレートに運んでそれを蒸気に変えるため、沸騰と凝縮の2段階のプロセスとなる。このようにして、プロセッサから大量の熱が取り除かれ、サーバから除去される。冷却システムには水を使用しないため、機器は腐食やその他の水関連の脅威にさらされずに済む」と説明している。 Belkin氏は、「ZutaCoreの特許取得済みのアプローチは技術的には冷却ではなく、物理的特性を利用している。実際に冷却しているわけではなく、CPUから熱を移動させているだけだ。その熱は他の場所で再利用も可能だ」と付け加えた。また、液体は独自のものではなく、さまざまなベンダーから購入できるという。 Belkin氏は、「このソリューションが持続可能である理由の一つに、この液体が不燃性で、毒性がなく、環境に優しいことがある。これは、地球温暖化への影響が非常に低い液体だ」と述べている。
冷媒を使わない固体冷却
独自のアプローチでデータセンター冷却に取り組む企業は他にもある。Phononicは、半導体冷却にソリッドステート技術を使用していて、コンピューティングだけでなく、他のさまざまな用途にも使用できる。EE Timesのインタビューに応じたPhononic CEOのTony Atti氏は、「持続可能性の次の課題は冷媒に関連する排出物だ。だからこそPhononicのソリッドステート技術は大きな可能性を秘めている」と語った。同技術は冷媒を一切使用しないからだ。 同社の固体熱電デバイス(サーモエレクトリッククーラー、TEC)は、実績のあるサーモエレクトリックの原理と、いわゆるペルチェ効果を利用しているという。TECに電流を流すと、熱を一方から他方へ移動させる。各TECは半導体材料でできた「レッグ」で構成され、キャリアを使って熱を移動させる。 レッグは、n型半導体のレッグとp型半導体のレッグから成るペアで配置されている。TECに電流が流れると、キャリアは全て同じ方向に移動し、熱をデバイスの片側からもう片側に伝える。 「当社は顧客から提供された仕様に基づいてカスタム設計を行う。われわれに何ができるかを理解してもらったら、反復的な設計プロセスが始まる」(Atti氏) Phononic社のアクティブで応答性の高い熱伝導へのアプローチは、チップ以外にも適用できる。同社のソリッドステート技術は、環境に優しいだけでなく、拡張性に優れていて、広い用途の空調や冷凍にも使用できるとしている。 ※米国EE Timesの記事を翻訳、編集しました。
0 コメント:
コメントを投稿