2024年7月28日日曜日

NVIDIA一人勝ち、解消なるか アマゾンがより「安くて速い」生成AI用半導体の開発へ 2024年07月27日 07時00分 公開 [ロイター]

https://www.itmedia.co.jp/business/articles/2407/26/news179.html


関連情報:

NVIDIA GPU不要 1.58bit LLM

https://www.google.co.jp/search?q=NVIDIA+GPU%E4%B8%8D%E8%A6%81%E3%80%801.58BIT%E3%80%80LLM&sca_esv=7e57735cd28b5eff&sxsrf=ADLYWII1ChMpFNRzOaYOV71LC0aYpKaVdw%3A1722135864727&ei=OLWlZvGBLOnm2roPoIPLmQM&ved=0ahUKEwjx_eKD4MiHAxVps1YBHaDBMjMQ4dUDCA8&uact=5&oq=NVIDIA+GPU%E4%B8%8D%E8%A6%81%E3%80%801.58BIT%E3%80%80LLM&gs_lp=Egxnd3Mtd2l6LXNlcnAiIE5WSURJQSBHUFXkuI3opoHjgIAxLjU4QklU44CATExNSMsHUL4BWL4BcAF4AJABAJgBf6ABf6oBAzAuMbgBA8gBAPgBAZgCAaACBMICCxAAGLADGKIEGIkFwgILEAAYgAQYsAMYogSYAwCIBgGQBgSSBwExoAda&sclient=gws-wiz-serp

ーーー

NVIDIA GPU不要の1.58ビットLLMについて

**「NVIDIA GPU不要の1.58ビットLLM」**というキーワードについて、より詳しく掘り下げていきましょう。

従来のLLMとGPUの関係

従来、大規模言語モデル(LLM)の学習や推論には、NVIDIAのGPUが広く利用されてきました。GPUの並列処理能力が、LLMの膨大な計算量を効率的に処理するのに適していたためです。

1.58ビットLLMの革新性

1.58ビットLLMは、この常識を覆す可能性を秘めた技術です。

  • ビット数の削減: 従来のモデルが32ビットの浮動小数点数を用いていたのに対し、1.58ビットという極めて少ないビット数で表現することで、計算量を大幅に削減できます。
  • GPU不要の可能性: 計算量が劇的に減ることで、高性能なGPUがなくても、CPUや他のハードウェアで十分な性能が出せるようになる可能性があります。

1.58ビットLLMがもたらす可能性

  • コスト削減: 高価なGPUの購入や運用コストを削減できるため、LLMの開発や利用がより身近になります。
  • 小型化: GPU不要になることで、LLMを組み込んだデバイスを小型化できる可能性があります。
  • 省電力化: 計算量が減ることで、消費電力を抑えることができ、環境負荷の軽減にもつながります。

1.58ビットLLMの課題と今後の展望

  • 性能の検証: まだ研究段階の技術であり、大規模な実用モデルでどの程度の性能を発揮できるかは未解明です。
  • 汎用性の検討: 特定のタスクに特化している可能性もあり、あらゆるタスクに適用できる汎用的なモデルになるかは今後の研究が必要です。

まとめ

1.58ビットLLMは、LLMの開発と利用における新たな可能性を開く画期的な技術と言えるでしょう。今後、この技術がどのように発展していくのか、注目が集まります。

さらに詳しく知りたい方へ

より詳細な情報を知りたい場合は、以下のキーワードで検索してみてください。

  • BitNet:Microsoftが開発した1ビット量子化に関する研究
  • 量子化:数値表現の精度を落として計算量を削減する手法
  • 大規模言語モデル:LLMの基礎知識
 

 アマゾン・ドット・コムの半導体研究所で、エンジニアたちは7月26日午後、新しいサーバプロジェクトの試験を行った。アマゾンの幹部ラミ・シンノ氏は、このサーバには市場リーダーであるNVIDIAのチップと競合するアマゾンのAIチップが搭載されていると述べている。

アマゾン開発の半導体 NVIDIAへの依存を解消できるか

 アマゾンは高価なNVIDIAのチップへの依存を減らすため、自社のプロセッサを開発している。この取り組みは、アマゾン・ウェブ・サービス(AWS)の成長の柱であるAIビジネスを支えるものだ。自社開発の半導体を通じて、アマゾンは顧客が複雑な計算を実行し、巨大なデータ量をより安価に処理できるようにすることを目指している。

 競合のマイクロソフトやアルファベットも同様の取り組みを進めている。


アマゾンがより「安くて速い」生成AI用半導体の開発へ(ロイター)

 アマゾンの子会社であるAnnapurna Labsのエンジニアリングディレクターでもあるシンノ氏によると、顧客はNVIDIAに代わる安価な選択肢をますます求めているという。アマゾンは2015年にAnnapurna Labsを買収した。

 アマゾンのAIチップ開発はまだ初期段階だが、同社の主力製品である非AIコンピューティング用のGravitonチップは約10年前から開発が進められており、すでに第4世代に達している。AIチップである「Trainium」と「Inferentia」は、より新しいプロジェクトだ。

 アマゾンの収益の約20%を占めるAWSの売り上げは、前年同期比で17%増の250億ドルに達した。AWSはクラウドコンピューティング市場の約3分の1を占め、マイクロソフトのAzureは約25%を占めている。

 最近のAmazon Prime Dayのイベントでは、同社は25万個のGravitonチップと8万個の独自のAIマイクロプロセッサを展開し、プラットフォームの活動増加に対応したという。

Copyright © Thomson Reuters

0 コメント:

コメントを投稿