https://news.yahoo.co.jp/articles/a614c7b3df29edddd94d9d1f524ce2138d3023fc
https://news.yahoo.co.jp/articles/a614c7b3df29edddd94d9d1f524ce2138d3023fc
https://news.yahoo.co.jp/articles/a614c7b3df29edddd94d9d1f524ce2138d3023fc
https://news.yahoo.co.jp/articles/a614c7b3df29edddd94d9d1f524ce2138d3023fc
Max A. Cherney [サンフランシスコ 31日 ロイター] - ソフトバンクグループ傘下の英半導体設計会社アームの技術を用いたデータセンター用CPU(中央演算処理装置)の世界市場シェアは、人工知能(AI)ブームを背景に2024年の約15%から今年末には50%まで拡大する見通しだ。アームのインフラ最高責任者を務めるモハメド・アワド氏が明らかにした。 アーム設計のCPUは、AIシステム内でしばしば「ホスト」チップとして利用され、他のAIチップのためにトラフィックを制御する役割を担う。例えば米半導体大手エヌビディアは、幾つかの最先端AIシステムに「グレース」と呼ばれるアームの技術に基づいたチップを使っている。 AI用データセンターの電力使用量が膨大になるとともに、クラウド事業者の間でアーム設計の半導体に対する人気が高まってきた。 アワド氏は、多くのケースでアームの技術に基づくCPUは、米半導体大手インテルやAMDなどの製品に比べて消費電力が少ないと説明。データセンター向け半導体にはアームの知的財産が利用される傾向があり、他の用途の半導体に比べてアームが受け取るロイヤルティーの総額はずっと多いと付け加えた。 アワド氏によると、データセンター用CPU市場では、ソフトウエアの書き換えやハードウエアの部品交換といった面で、ようやくアーム設計の製品を優先的に受け入れる環境が整ってきたという。
0 コメント:
コメントを投稿