Pages - Menu

Pages - Menu

Pages

2023年11月25日土曜日

日本製のCPU・GPUが無い理由は何でしょうか?

https://jp.quora.com/%E6%97%A5%E6%9C%AC%E8%A3%BD%E3%81%AECPU-GPU%E3%81%8C%E7%84%A1%E3%81%84%E7%90%86%E7%94%B1%E3%81%AF%E4%BD%95%E3%81%A7%E3%81%97%E3%82%87%E3%81%86%E3%81%8B

並べ替え
 · 
フォロー

経営的な失敗です。すなわち、商売に失敗したからです。

20~50年前、全スマホで使われるARM(CPU 英)よりSH(CPU 日立)の方がダントツに早く安かった。画像処理用のワークステーション・シリコングラフィックス(300万は安い方)のCPUはNECが生産していた。NVIDIAが一号機を作った同時期に筑波大のプロジェクトがGPUを試作していた。そもそも、インテルに最初のCPUを作成させてCPUの特許を持っていたのは日本企業でした。

経営的な失敗、商売の失敗をやり続けた結果です。

 · 
フォロー

Renesas RX

Renesas SH/RH

東芝 PSC(Programmable Servo/Sequence controller)

NEC NOAH

広告
 · 
フォロー

確かに日本製のCPU・GPUは、ほとんどないですね。

今も作られている日本オりジナル設計&日本国内製造のCPUという事でしたら、私が知る限りでは日立那珂工場で細々と製造している組込み用途向けの32ビットのSH-4が最も高機能高性能なCPU/SoCがありますね。他だとH8などの8ビットのコントローラになり、CPUとは言えない気がします。

日本製のGPUはないですね。

.

セカンドソースの歴史も含めれば、NECがインテル社のライセンスを受けて8080-AFを作ったり、ライセンスが切れた後もV20/V30を作ったりしていました。V20/V30はインテル社に訴えられて消えましたね。

日立がPowerVRをPowerアーキテクチャベースで作って、その後は権利を買い取り日立独自品としていましたが、その後、長い年月が経ち、今では製造は海外へ発注していますから日本製のCPUとは言えません。

他の回答に富士通のCPU「A64FX」が上がってますが、あれはARM社のARMアーキテクチャのライセンスを受けて、しかもARM社はIP売りっぱなしではなくファブレス企業ですから技術サポートもします。つまり、A64FXは富士通の要望に従ってARM社が細部まで設計し、TSMCでのプロセス調整を行ったと言えます。日本側は発注しただけで設計や製造していないので、日本製のCPUとは言えないでしょう。外注した物も日本製と呼ぶなら、SONYの「プレステ」シリーズや任天堂の「Switch」などのSoCはすべて日本製ですし、他にも無数にあります。

日本製のCPU・GPUが無い理由は、1970年代や1980年代にCPUの基本的なアーキテクチャを生み出していなかったので、CPUのエコシステムが存在しなかった事が大きいと思います。1980年代にNECが8080の、日立が6800のセカンドソース事業をそれぞれ始めたのですが、あの時点で開発リソースを投入してオリジナル品を作って日本製のパソコンなどで使っていれば違っていたでしょう。そのためにはソフトウェアも必要で、そういった技術への大規模な投資ができたのは、ガレージから出発したマイクロソフトなどよりも日本企業の方がずっと有利だったのです。

広告
 · 
フォロー

NECのV60 V70あたりは独自ではなかったでしょうか。汎用レジスタを非常に多く揃えて比較的フラットでした。

あと、SONYがPS3で使ったCellも、PowerPCコアとはいえほぼ独自と言って良いものではなかったかと。

 · 
フォロー

Intel互換のNEC V30とか、Dreamcastというゲーム機に搭載されたCPU+グラフィックチップの日立PowerVRとか、かつては日本のメーカーがCPUを開発・生産していた時代もありました。

NECがCPU開発を辞めてしまった理由は知りませんけど、日立の場合は業績赤字を解消するためにコンピュータに関するほとんどの事業(CPU、メモリ、ハードディスク)を売却してしまったようです。しかも、現在においても一流として評価の高いブランドもあるので、そりゃあもういい値段で売れたでしょう。

 · 
フォロー

SHシリーズとかPowerVR(設計はイギリス、製造は日本)とかあったんだけどね(遠い目 今でも機器組み込み系(いわゆるIoTってやつ)には使われてるんじゃないかなあ。でもそれもARMがエライ勢いなもんだからどうなんだろう?

SuperH - Wikipedia
この記事は 検証可能 な 参考文献や出典 が全く示されていないか、不十分です。 出典を追加 して記事の信頼性向上にご協力ください。 ( このテンプレートの使い方 ) 出典検索 ? : "SuperH" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL ( 2021年10月 ) SuperH (スーパーエイチ)は、 日立製作所 (後の ルネサスエレクトロニクス )が開発した 組み込み機器 用 32ビット RISC マイクロコンピュータ 用アーキテクチャである。 SH-2が採用されたディーゼルエンジン制御用ECU 1990年代後半以降に到来すると考えられた ユビキタスコンピューティング 社会における普及を目指し、立ち上げ当初から消費電力あたりの性能 (MIPS/W) の向上を標榜していたことが特徴の一つである。 1990年代にはSH-1、 SH-2 、SH-3、SH-4、の4種類のアーキテクチャが発表され、高性能・高機能な32ビット組み込み向けマイクロプロセッサ ( MPU ) として展開された。家電、AV機器、産業機器、ゲーム機、 携帯情報端末 (PDA) など非常に広範囲に採用されたが、2000年代に入るころにはARMに市場を奪われ、シェアを失った。 64ビット 版SHプロセッサであるSH-5アーキテクチャの開発も2000年までに完了していたが、顧客獲得に至らず、製品をリリースできないまま終わった。 そのため、2000年代には組み込み向けマイクロコントローラ( MCU 、マイコン)として展開された。当時は組み込み向けなら32ビットでも十分に高性能・高機能なマルチメディア対応プロセッサでありえた時代であり、SHマイコンは組み込み向け SoC のコアとして、携帯電話(ガラケー)向けアプリケーションプロセッサの「SH-Mobile」や、車載情報機器(カーナビ)向けSoCの「SH-Navi」として非常に成功した。 ルネサス再建の過程で、SHファミリのかなりの製品が製造中止になった。車載用マイコンとしては、2012年に旧NECエレのV850をベースとする新世代マイコン「RH850」に置き換えられて廃止された。ARMをベースとする新生ルネサスのカーナビ向けハイエンドSoC「R-Car」においては、しばらくはSHコアが搭載され続けていたが、2015年の製品より廃止された。ただし、ルネサスは組込向けプラットフォームの提供者として「長期製品供給プログラム」を運用しており [1] 、顧客が使い続ける限りはSHマイコンを生産し続けることを確約している(逆に言うと、顧客がいないと2025年以降に製造中止になる)。 日立製作所は1976年より米国 モトローラ と提携し、モトローラより MC6800 のライセンスを受けてマイコンを製造していたが、1980年代に入ると日立とモトローラとの関係が悪化し、1986年には日立の「 ZTAT 」マイコン(Zero Turn Around Time、日立の登録商標。後に一般的にOTP (One Time Programmable ROM) と呼ばれるもので、マイコンにメモリを組み込んだ世界初の製品)においてライセンス打ち切りを通達される。そのため日立は日立独自の「H8」および「H16」アーキテクチャの策定に着手したが、H8とH16のアーキテクチャに対してモトローラが特許侵害を訴え、1989年より訴訟合戦が始まったため、先行きが不透明となった。モトローラとの訴訟は1990年に終結し、8ビットマイコンであるH8の展開は継続することができたが、H16マイコンは打ち切りとなったため、新たな16/32ビットCPUの開発が急務となった。H8/H16と同時期には TRONCHIP 「H32」の開発も行われていたが、国策の TRONプロジェクト によるマイコン開発は1990年の時点ではすでに失敗が見えていた。そのため、日立製作所半導体事業部マイコン設計部部長の木原利昌は、新たなアーキテクチャ「SH」の開発を河崎俊平に命じた。「SH」とは公式には「SuperH」の略だが、河崎によると実は「俊平」の略だという。 SuperH CPUの開発は1990年夏ごろより進められ、 1992年 にSHシリーズの最初の製品であるSH-1 (SH-7034:HD6417034) が発表された。開発段階からメーカーに好評で、各社の製品に採用され、組み込み用途の32ビットRISCマイクロコンピュータとして先鞭をつけた。1994年に発表されたSH-2は、1994年発売のゲーム機・ セガサターン への搭載を前提として セガ・エンタープライゼス と共同開発され、ゲーム用に1000万個単位で量産されたことにより、1996年には組み込み向け RISC CPUとして世界第2位の出荷量を誇った。1996年に発表されたSH-3は、1996年発売のPDA・ カシオペア への搭載を前提として カシオ計算機 と共同開発され、OSとして Windows CE を走らせるためにMMUが搭載された。1998年に発表されたSH-4は、1998年発売のゲーム機・ ドリームキャスト への搭載を前提として、スーパースカラ方式の採用に加えて3DCGを表示させるためのベクトル演算器が搭載された。SHマイコンは カプコン CPシステムIII (1996年)、 カネコ スーパーカネコノバシステム (1996年)、セガ NAOMI (1998年)などの業務用ゲーム基板にも採用され、 PDA や ハンドヘルドPC などの携帯情報機器の分野では、高性能かつ低消費電力と言うSHアーキテクチャの強みから、2000年頃までは日立製作所のPERSONAシリーズだけでなく、HP JornadaシリーズやCOMPAQ AEROシリーズなど海外でも少なくない製品で採用されていた。 1998年より日立はSH-4の次世代アーキテクチャとして、64ビット版のSHプロセッサであるSH-5アーキテクチャを STマイクロエレクトロニクス と共同開発しており、2000年12月までにSH-5のサンプル出荷を行う予定であった [2] 。SH-5では64ビットの広いアドレス空間において、新開発のクリーンなアーキテクチャ(「SHmedia」モード)を用いてCPUとしての性能を向上させ、SH-4との互換性はエミュレーションモード(「SHcompact」モード)を持たせることで担保する、という方針であった。さらに、SH-5の開発が完了した後、後継であるSH-6およびSH-7アーキテクチャの開発をルネサスとSTマイクロで継続して行うつもりでもあった。しかし2000年代に入ると組込CPU市場はARMアーキテクチャが圧倒しており、SH-5は顧客の獲得に失敗した [3] 。 Windows CE ベースのPDAが Pocket PC 2002 よりのち ARMアーキテクチャ に一本化されたことと、 セガ が家庭用ゲーム機のハードの開発から撤退したこと、RISCプロセッサのブームが一段落したこと、などが理由として挙げられる。 A
PowerVR - Wikipedia
出典: フリー百科事典『ウィキペディア(Wikipedia)』 PowerVR搭載製品 Matrox m3D PowerVR (パワーブイアール)は、 イギリス の ファブレス 企業である ビデオロジック (現: イマジネーションテクノロジーズ ( 英語版 ) )が開発した、 グラフィックコントローラ IPコア およびそれを 集積回路 として実装したグラフィックチップである。チップ製造は NEC や STマイクロエレクトロニクス [1] 等が行なってきた。当初、メインターゲットとされていた パソコン 用 ビデオカード としては、ほとんど普及しなかったが、比較的メモリへの負荷が少ないというその特徴から、家庭用 ゲーム機 および アーケードゲーム基板 、 携帯電話 、 携帯情報端末 (PDA)、 カーナビゲーション といった 組み込みシステム に広く採用されている。 また Intel Atom 、 Apple Axシリーズ 、 Texas Instruments OMAP などに GPU として組み込まれ、携帯電話・タブレットなどに広く採用されている。 特徴は、 Zバッファ 法で通常行なうような「手前にある物体は上書きする」という方式を基本的に採らず、「一番手前の物体しか描画しない」という手法により、Zバッファ用のメモリをほぼ不要にした点である。タイル単位でこの処理を行なうことから "tile-based deferred rendering" と呼んでおり、TBDRと略す(詳細は w:Tiled rendering を参照)。2009年現在、 OpenGL ES の プログラマブルシェーダー や、 H.264 や MPEG-2 、 MPEG-4 などの動画コーデックに対応した高機能な製品をリリースしている。 IPコアの一覧 [ 編集 ] PowerVR VXD370 HD( ハイディフィニション ) 品質のデコードなどに向けた IPコア 。 PowerVR M2VXファミリー SD(標準精細度)品質のデコードなどに向けたIPコア。 PowerVR MVED1 モバイル機器に向けたIPコア。 PowerVR チップセットの一覧 [ 編集 ] [1] 公式 Imgtec データ [2] USSE (Universal Scalable Shader Engine) pipes/TMUs [3] USSE2 (Universal Scalable Shader Engine 2) pipes/TMUs 全モデル Tile based deferred rendering (TBDR) 対応 Series 1 [ 編集 ] 1996年、秒間30万ポリゴンのPCX1発表。1997年、性能が秒間45万ポリゴンに向上したPCX2発表。これらは3D演算機能と4MBの専用RAMのみ搭載したPCIバスのボードで、表示には別途ビデオカードが必要となる。ビデオキャプチャボードのオーバーレイ機能と同様に、DirectDrawを経由し、ビデオカードのVRAMに直接表示データを書き込む。グラフィックライブラリはDirect3Dのほか、オリジナルのSGL (Super Graphics Library) が利用できる。全モデル DirectX 3.0 サポート。 モデル Launch Fab (nm) メモリ (MiB) コアクロック (MHz) メモリクロック (MHz) 設定コア 1 フィルレート メモリ メガ命令/s メガピクセル/s MTextels/s メガ頂点/s 帯域 (GB/s) バス種別 バス幅 ( ビット ) PCX1 1996 500 4 60 60 1:0:1:1 60 60 60 0 0.48 SDR 64 PCX2 1997 350 4 66 66 1:0:1:1 66 66 66 0 0.528 SDR 64 1 ピクセルシェーダ : 頂点シェーダ  : テクスチャマッピングユニット : レンダー出力ユニット Series 2 [ 編集 ] 1998年2月23日発表。2D表示機能を搭載し、単独で使用できる2D/3Dビデオカードとなった。 ドリームキャスト に搭載されているほか、PC用のAGPカードも存在したが、日本ではほとんど普及しなかった。全モデル250 nm プロセスで製造、 DirectX 6.0 対応。PMX1 は Mini-GL 対応。 モデル Launch メモリ (MiB) コアクロック (MHz) メモリクロック (MHz) 設定コア 1 フィルレート メモリ メガ命令/s メガピクセル/s MTextels/s メガ頂点/s 帯域 (GB/s) バス種別 バス幅 ( ビット ) CLX2 1998 8 100 100 1:0:1:1 100 100 100 0 0.8 SDR 64 PMX1 1999 32 125 125 1:0:1:1 125 125 125 0 1 SDR 64 1 ピクセルシェーダ : 頂点シェーダ  : テクスチャマッピングユニット : レンダー出力ユニット Series 3 [ 編集 ] PowerVR3 KYRO II 2000年、 KYRO 発表。KYRO IIは2001年発表。KYROのバグフィックスとクロックアップ。 全モデル DirectX 6.0 対応。 モデル Launch Fab (nm) メモリ (MiB) コアクロック (MHz) メモリクロック (MHz) 設定コア 1 フィルレート メモリ メガ命令/s メガピクセル/s MTextels/s メガ頂点/s 帯域 (GB/s) バス種別 バス幅 ( ビット ) STG4000 2000 250 32/64 115 115 2:0:2:2 230 230 230 0 1.84 SDR 128 STG4500 2001 180 32/64 175 175 2:0:2:2 350 350 350 0 2.8 SDR 128 STG4800 Never Released 180 64 200 200 2:0:2:2 400 400 400 0 3.2 SDR 128 STG5500 Never Released 130 64 250 250 4:0:4:4 1000 1000 1000 0 4 DDR 128 1 ピクセルシェーダ : 頂点シェーダ  : テクスチャマッピングユニット : レンダー出力ユニット Series 4 [ 編集 ] モデル 年 ダイサイズ (mm 2 ) [1] 設定コア フィルレート (@ 200 MHz) バス幅 ( ビット ) API (version) メガ三角形/s [1] メガピクセル/s [1] DirectX OpenGL MBX Lite Feb 2001 4@130 nm? 0/1/1/1 1.0 100 64 8.0 1.1 MBX Feb 2001 8@130 nm? 0/1/1/1 1.68 150 64 8.0 1.1 Series 5 [ 編集 ] モデル 年 ダイサイズ (mm 2 ) [1] 設定コア [2] フィルレート
 · 
フォロー
 · 
フォロー

ひょっとして国産最新のGPUは Nintendo 3DS 内臓の PICA2000 かもしれません。

PICA200 - Wikipedia
出典: フリー百科事典『ウィキペディア(Wikipedia)』 PICA200 は、 ディジタルメディアプロフェッショナル (DMP) が開発した車載システムや 携帯電話 、携帯ゲーム機などの モバイル 端末 向けの3Dグラフィックス IPコア ( GPU ) である。 ニンテンドー3DS に搭載される事で特に話題となった。 SIGGRAPH 2006においてFuturemark社との共同で動作デモを公開した [1] 。 ( 実際の動画 ) PICA200は ワークステーション 向けGPUであるULTRAY2000を元にしており、プロセス技術の進展により携帯機器向けのLSIに組み込めるレベルまで小型化されている。 2000年以降、GPUは プログラマブルシェーダー に対応することで柔軟性が飛躍的に増大し、各社はシェーダーコアとしてのGPU性能の向上に努めてきた。この概念は消費電力やチップコストがある程度許容できるPCやワークステーション、あるいは据え置きゲーム機などのGPUとしてはうまく適合したが、組み込み機器向けとしては性能対消費電力の面で効率があまりよくなかった。 この状況へのアンチテーゼとして、プログラマブルシェーダー中でよく使われる定番のテクニックを逆に専用ハードウェアの形で実装することで、シェーダーコアを搭載せずに必要十分なグラフィック処理能力を持たせる事が可能となる。DMP社はこの考えを軸に独自GPUの開発に乗り出した [2] 。 フレームバッファ :最大4088×4088ピクセル ピクセルフォーマット:RGBA4444, RGB565, RGBA5551, RGBA8888 頂点プログラム (ARB_vertex_program) テクスチャへの描画 ミップマップ バイリニア・ テクスチャフィルタリング アルファブレンディング フルシーン・ アンチエイリアシング (2×2) ポリゴン・オフセット 8bitステンシルバッファ 24bit Zバッファ シングル/ダブル/トリプル・バッファ 頂点性能:最大15.3M ポリゴン/秒 (200MHzの場合) ピクセル性能:最大800M ピクセル/秒 (200MHzの場合) [3] DMP MAESTROテクノロジー [ 編集 ] パーピクセル・ライティング ライティングの計算を頂点ごとの法線情報からの線形補間のみによらず、光源ベクトル、視線ベクトル、ピクセルにおける法線ベクトルから反射方程式を解いてそのピクセルの明るさを算出する。これにより頂点単位のライティング結果をただ補間してそのピクセル色とする簡易的なライティングよりもなだらかな陰影や美しいハイライトが出せるようになる [4] 。 トゥーンレンダリング 明るさを0.0~1.0までの連続した値域の代わりに2段階程度の非連続の値を取ることにより、セル画アニメ風のかっちりした塗り分けを表現する機能。 プロシージャルテクスチャ テクスチャのピクセルデータを自動生成する機能。通常はピクセルシェーダーのプログラムとして実装する部分。 レンズフレアや光芒のようなよく用いられる幾何学模様的なテクスチャはパラメータを与えるだけで得られる [1] 。 また木目のような細部が複雑かつ不規則でありながら全体としてパターンデータが求められるようなテクスチャを計算で自動生成することができ、テクスチャに要するVRAM容量を大幅に節約できる。 屈折マッピング 環境マッピング の一種で光の屈折を計算で算出するための仕組み。不定形の水滴などの透明な物体をリアルに表現できる。 サブディビジョンプリミティブ プリミティブ (ポリゴンの形状) を算術的に補完し、なめらかな形状を自動生成する機能。 シャドウ 半影処理をサポートする。影の生成は投影シャドウだけでなく、シャドウマップ、ステンシルシャドウなどのセルフシャドウにも対応している。 ガスオブジェクト描画 ソフトパーティクルをサポートし、煙などを自然に描画できる機能。 OpenGL ES 1.1標準仕様をサポートする。 DirectX ではバージョン6から7に相当する。これに加え1.1拡張パック (1.1 Extension Pack) のレベルまでハードウェアとして実装され、ソフトウェアから呼び出すことが可能になっている。DMP社はOpenGL ESの仕様を策定するKhronosグループの参加メンバーでもある [1] 。 PICA200がサポートするのはMAESTRO-2Gとなっており、OpenGL ES 1.1+1.1拡張パックを超える仕様をも含む。これらの追加機能はDMP拡張API「DMP拡張パック」としてOpenGLのAPIの一部の形でソフトウェアに対して提供される。 PICA200は機能全体としてみると固定機能シェーダーアーキテクチャというよりもコンフィギュラブル・シェーダーアーキテクチャと捉える方が適切である。 エフェクトのプログラミングではPICA200の開発キットに含まれる「ShaderBox」と呼ばれるオーサリングツールを利用すると、OpenGL 2.0ベースのシェーダープログラムを記述することで半自動的にMAESTRO上の部品ロジックの組み合わせに分解し、適切に設定できるようになる。その動作はPICA200エミュレータを用いてPC上で確認することができる [2] 。 対応環境 [ 編集 ] OpenGL 2.0/ OpenGL ES 2.0以降では シェーダープログラム を主体としたプログラミングモデルとなるが、本コアの場合は独自に設計された固定機能を組み合わせて演算を行う形となる。セルフシャドウを含むシャドウ生成やBRDF(双方向反射率分布関数)を用いた本格的な反射表現、皮膚表現などで多用される表面下散乱といった機能を最初から備えており、簡単に使用できるという [5] 。 関連項目 [ 編集 ] 外部リンク [ 編集 ]
 · 
フォロー

「日本製」のIPコアなのか、SOCの設計なのか、日本のファブで作っていたのか。かつて無かった訳ではありませんが、現在はもう競争力のある製品はありません。日本で開発されたプロセッサのISAはほぼ組み込みかスパコンなどの特殊用途のシステムにしか採用されていません。これはみなRISC-Vに集約されていく流れと思います。チップ設計は意外と行われているのではないかと思います。日本には半導体設計を行う会社も人員もたくさんあります。ただPCやスマホのように大量の出荷数が見込めるコンスーマ分野では競争力はありません。そして今はもう先端のファブもありません。PS3やWiiU世代まではゲーム機の主要チップは日本のファブで作られていました。

CPUに関してはこちらもどうぞ

Tat Iwamoto
 · 2年前
日本はなぜCPUの開発製造をしなくなったのですか?
CPUだけでなく、「電子立国」と呼ばれた日本の半導体産業が今や競争力を残しているのは製造装置や素材の分野か特定用途のデバイスだけです。ロジックやメモリーなどの製品分野でもファブを運用する製造ファウンドリーでも先端の競争にはもう参加していない、と認識するべきでしょう。 日本は20世紀の終わりまでは電気・電子に関わる全ての企業が何らかの形で半導体産業に首を突っ込んでいましたが、どこも選択と集中で何か強みを発揮して抜きん出ることもなく、世界規模の競争についていけずにダラダラと脱落していきました。もちろん市場環境や為替などの外的要因もあったとは思いますが、とにかく横並びでどこも頭ひとつ抜け出ることができませんでした。また資金力が弱いためにダイナミックに資本を投入して合併吸収を行う世界の競合についていけなかった、というのもあります。アジア通貨危機などで国レベルで経済的に追い込まれても世界の競争に踏みとどまった韓国勢とは対照的です。日本の半導体はメモリー=エルピーダ、ロジック=ルネサス、液晶=ジャパンディスプレイと敗者連合を組んで公的予算で救済する、という形で敗戦処理をしてきたのです。 CPUを開発する、というのが何を指すかです。新たなプロセッサのISAを作り出すのか、単に何かのISAのプロセッサ・コアを設計するのか、CPUを含むLSIやSOCを製造するのか。 新しいISAを作り出す試みは日本に限らず、多くが失敗に終わっています。結局プロセッサの価値はそれが実行するソフトウェアで決まります。ソフトウェア開発のエコシステムを構築するには製品と開発者への普及が欠かせず、その壁を乗り越えるビジネス的ハードルはとても高いです。日本企業が関わって新しいISAを開発して、それなりのビジネス規模の製品が展開されたのはPlayStation3用のCELL BEに採用されたSPUが最後ではないでしょうか?これも多用途のプロセッサとして開発されたものの、出荷数で言えばほぼPlayStation3専用であったと言えるでしょう。ISAとしてはx86がPCの標準CPUとしてそのソフトウェア資産の強みで君臨してきました。しかし、今やエンドユーザーデバイスとしてはARMを搭載したスマートフォンやタブレットの方が数多く出荷されており、MacのARMへの移行とともにx86の牙城が揺らぐ可能性もあります。またx86はプロプライエタリなISAで新規参入を法的にも排除してきましたが、ARMはオープンライセンスで、誰でもチップを作ることができます。そして近年はRISC-Vが注目されています。これはISA自体が完全にオープンソースになっており、ライセンス料を払う必要もありません。逆に新規のISAを作ることの意義はどんどん薄れているように思えます。 新しいコアの設計をするのはどうでしょう?ARMにはアーキテクチャ・ライセンスというISA互換で独自の実装を行えるライセンス形態があります。AppleやQualcommなど、独自のコアを開発している企業は独自の性能や機能強化のためにこの形態をとっているようですが、ほとんどの場合はARMが設計したコアをライセンスした方がはるかに手早いです。プロセッサ・コアを設計する事自体は設計環境さえあれば誰にでもできますが、検証や製造プロセスへの対応など自社で時間とコストをかけてもほとんどの場合割に会いません。RISC-Vはオープンなツールも揃っており、研究目的や新規分野の製品においては新たなコアを開発するベースとして魅力のあるアーキテクチャと言えます。 最後にLSIを開発・設計・製造する場合です。もちろん製造自体はファウンダリに委託してファブレスで行うとしても開発・設計をしたものをどうするのか、という事につきます。最新プロセスでそれなりの規模のLSIを開発・設計・検証・テープアウトして元を取るにはそれなりの製造数と売り上げが見込めないといけません。一部の組み込みやエンタープライズ向けのLSIはともかく、PCやスマートフォンなどの市場規模の大きいLSI市場には日本の半導体メーカーはもう食い込んでいません。 電子立国日本の時代はもう終わっているのです。

他の回答者様の回答を読んでいるとGPUとは何かの議論が結構ぶれがちのようです。時代とともに求められる機能が変わったというのもあります。だいぶ昔にこんなの書いた事もありました。絵を出す機能、という点からみればApple IIはGPUとすら言えるかもしれません。

Brief History of Graphics Devices
Brief History of Graphics Devices - Download as a PDF or view online for free

後GPUが行う3Dグラフィックス処理とそれが汎用並列演算に適用されるようになっていった流れについてはこちらもどうぞ。

Tat Iwamoto
 · 1年前
なぜGPUはグラフィクス以外に科学技術計算の用途にも使われるようになったのでしょうか?
英語版のWikipediaによればGPUという名称はPlayStation2に始まった、とあります。ただ、このチップはシステム上はGS(Graphic Synthesizer)と呼ばれており、3Dグラフィックスの処理の一部を行う専用チップでした。 日本語版のWikipediaにはGPUという名称の一般化はNvidiaのGeForce256から、とあります。これは3Dグラフィックスにおける3次元のT&L演算をチップ内で行うようになったため、とあります。ただこの時点でもPC向けのグラフィックスカードが提供するのは3Dグラフィックスにおける固定機能でした。ちなみにPS2におけるT&L演算はCPU(Emotion Engine)側のVU(Vector Unit)という演算装置を使って行われていました。これはプログラマブルである意味PS2アーキテクチャの先進性を表しています。 固定機能という概念は3Dグラフィックスのパイプラインの定義に則したものです。「固定」というのはプログラマブルではない、という意味です。OpenGLやDirect3Dの3次元描画処理は概ね以下の図のようになっており、APIで頂点列と描画ステートを定義した上で描画の呼び出しを行います。その処理の中にプログラマブルな部分とそうでない部分があります。GPU内で行われるプログラマブルな処理を「シェーダー」とも呼び、この図での水色の部分がそれに相当します。3次元グラフィックスの処理は大きく分けて頂点の処理とピクセルの処理に分かれています。頂点の処理では各頂点の画面内での座標を算出し、その頂点に対する光源の位置などを算出します。当初はこれらはAPIで渡されるパレメータの形で実現されていましたが、より柔軟な処理を行うためにそれをプログラマブル化されました。そしてさらにピクセル処理においてもピクセルレベルでの光源計算やテクスチャ処理を柔軟に行うためにプログラマブル化されました。逆にそれ以外の薄緑色の部分はその振る舞いがAPIで定義されており、プログラムによりが変更できないという意味で「固定機能」と呼ばれます。 このパイプラインは最初はシリコングラフィックス(SGI)社によって開発され、同社のグラフィックスワークステーステーションにIRIS GLとして採用されました。これがOpenGLとして業界標準化されたのが始まりです。この業界標準を取り入れながら独自標準を作り、結局はそれを事実上駆逐してしまったのがマイクロソフトのDirect3Dです。この二つの標準の存在とDirect3Dによるマイクロソフトの独立ハードウェアベンダー(IHV)の育成戦略こそがGPUというものを生み出したのです。当時のマイクロソフトはWindows向けのハードウェア系カンファレンスMeltDownを毎年開催し、多くのハードウェアベンダーを巻き込んでDirect3Dの開発を推進しました。その当時はグラフィックスカードとそのLSIを開発する会社はたくさんあって非常に活発なスタートアップのエコシステムが形成されていました。その中でも一歩抜きん出たのがNvidiaだったのです。 プログラマブル・シェーダーの導入はDirect3Dで始まりましたが、GPUの「プロセッサ化」の流れを決定的にしたのはNvidiaのGeForce FX世代でのシェーダー・プログラミング言語Cgの導入だと言えると思います。GPU商品としてはあまりパッとしなかったGeForce FX世代でしたが、Cgにより高級言語でGPUのシェーダーがプログラム可能になる流れを受けてDirect3DでもHLSLが定義・採用されます。ここからGPUが本格的に「プロセッサ」になっていくのです。ただこの段階ではまだグラフィックス用途に限定されています。 GPUの機能がより高度化する中でベンダーの生き残りは難しくなり、PC市場における競争はATIとNvidiaの2社に収斂していきます。そしてNvidiaはGPUの高度化の次のステップとしてCUDAを核としたGPGPU戦略を推進していきます。プログラマブルで超並列のプロセッサとなったGPUの用途を汎用演算にも拡大していく試みです。このようなGPGPU用途で使用する場合には3Dグラフィックス用の固定機能はほぼ不要になります。APIと言語はは高度に並列化されたプログラムの定義とその入力や出力と実行処理を制御するためのものとなります。これがGPUのグラフィックス以外の用途への転用と急成長の始まりでした。 GPGPUの技術的基盤ができた上でその急速な普及を後押ししたのは * 機械学習分野での深層学習の急速な発展 * 暗号通貨のマイニングでの需要 の二つが大きいと思います。この結果GPUはPCの画面に絵を出す事以外のために大量に購入されるようになり、今やNvidiaの時価総額はIntelを大きく超え、AMDを足してもお釣りがでます。
… (もっと読む)
 · 
フォロー

あったんだけど、ルネサスがギブアップしたね。

官僚主義的な構造で、後続として進化させることが可能な能力者の受け入れを拒んだからでしょうか。

それが原因で開発可能な人員が大幅に減り、完全脱落したかな。

先行エンジニアは超優秀でも、後続は猿まね能力者で十分。でも先行エンジニア引退後は革新起こすのにそれと同等の能力者を入れる必要があるから、猿まね能力者が上位で、先行エンジニアと同等の存在が後続になる。この構造が人類感的に無理なんでしょうね。

スーパースケーラくらいまでは先行してたと思うけどね。マルチコアで完全に存在意義失うレベルで脱落したね。

政策決定みたいなもんなんだから政府が運営論的に調整してよかったと思います。

ちなみに朝鮮とかは猿まね能力者しかいないから、パクりに余念がないんでしょうね。

DNAマップでも歴史観的にも日本人の半分は朝鮮人レベル言うのは納得ですね。

あなたの返答は公開されません
読む価値のある回答でしたか?
この情報はQuoraがページ上の回答を並べ替えるのに役立ちます。
そう思わない
そう思う
 · 
フォロー

単に、巨額な投資をしたくないから。日本の会社風土的に無理。

 · 
フォロー

ありましたよ。HD63484 などがこれで、当初、この能力に驚いた物です。

ですが、汎用 CPU によるグラフィックの性能が100TFLOPSなどになったことにより、このような専用 ビデオ CPU が要らなくなったのですよ。

今後は Intelより遥かに高速な ARM ベースの CPU が、GPU として使われることが分かっているので、更なる高速化が進みます。

 · 
フォロー

>「GPUの方がずっと高速なのに、なぜいまだにCPUが作られているのですか?」

この答えになっていない回答ばかりだったので書きますね。

GPUは汎用的な命令をほとんど持ちません。BIOSやOSを走らせる能力を持ちません。メモリ管理も、割り込み処理も、I/Oポートも、特権モードも持ちません。

例えば、パン屋さんに母子が客として訪れた時、幼い子供の目からは、レジ打ちの女の人があらゆるパンを瞬時に客に提供するので、その女性1人がいれば、店の奥で働いているパン職人たちはいらないように見えるかもしれません。実際はパン職人たちがパンを作っているのです。

GPUが乗ったPCはそのパン屋さんのようなものです。GPUが乗っていないPCはレジ打ち=パン職人です。

CPUはレジ打ちのように(内部の仕事もしますが)外部との仕事に欠かせません。GPUではOSは動かず、仮にGPUで動くOSを作っても使い難いし低性能でしょう。

GPUはCPUが行うような汎用的な仕事が不得意なんです。CPU(ホスト)だけでもPCは作れますが、GPU(デバイス)だけではPCは成立しません。HDDやSDDから”カーネル”(GPUのプログラム)を読み込む事が出来ません。

ではなぜCPUができてGPUではできないのかと言えば、他の回答者が書いているように、CPUは汎用でGPUは高速演算専用だからです。

 · 
フォロー

GPUは無いかもしれませんが、CPUは作ってますよ。

富岳ベースの商用スパコン「PRIMEHPC FX700」、コアあたり性能を高めたCPUを用意 | IT Leaders
富士通は2021年11月8日、「富岳」をベースとした商用スーパーコンピュータ「PRIMEHPC FX700」のラインアップを強化した。CPUのコア数/動作クロックの選択肢を増やし、コア数を2分の1に減らした代わりに動作クロックを1.3~1.4倍に高めたCPU(2.6 GHz、24コア)を選べるようにした。同容量のメモリーを搭載しているため、コアあたりでは2倍のメモリーを利用できる。
富岳 (スーパーコンピュータ) - Wikipedia
出典: フリー百科事典『ウィキペディア(Wikipedia)』 PRIMEHPC FX1000(「富岳」と同様の構造のHPC。SC19にて) 2018年 SC18での「富岳」のデモブース。「京後継、ARMエコシステムの最先端」と書かれている。 富岳 (ふがく、 英語 : Fugaku )は、 理化学研究所 の「 京 」の後継となる、 日本 の スーパーコンピュータ である [2] 。 2014年( 平成 26年)に開発が始まり、2020年( 令和 2年)より試行運用 [3] 、2021年(令和3年)に本格稼働した [4] 。設置場所は 兵庫県 神戸市 ・ ポートアイランド の 理化学研究所計算科学研究センター 。主要ベンダーは 富士通 [5] 。 受賞歴 [ 編集 ] 名称は2019年2月から4月まで公募を行い [13] 、5月にポスト「京」ネーミング委員会により7案に絞られ、更に理化学研究所理事会議により「富岳」に決定された [14] 。理化学研究所は「富岳」と決定した理由を以下のように発表した。 「富岳」は" 富士山 "の異名で、富士山の高さがポスト「京」の性能の高さを表し、また富士山の裾野の広がりがポスト「京」のユーザーの拡がりを意味します。また"富士山"が海外の方々からの知名度も高く名称として相応しいこと、さらにはスーパーコンピュータの名称は山にちなんだ名称の潮流があること、また海外の方からも発音しやすいことから選考しました。 — 理化学研究所(2019年5月23日) [15] なお、「富岳」は「京」の最大100倍の性能を目指すことから、 葛飾北斎 の『 富嶽百景 』や 太宰治 の『 富嶽百景 』からの 駄洒落 (富岳100京)との説もある [16] 。 ハードウェア [ 編集 ] 「富岳」は 富士通 が開発した CPU である A64FX を搭載している。このCPUは、フロントエンドを ARMv8.2-A ベースに新たな拡張であるSVE(Scalable Vector Extension)を追加した [17] ものとして、バイナリレベルでARMとの互換がとられた一方、 マイクロアーキテクチャ は「京」でも使用された富士通製 SPARC64 の構造を踏襲している [18] 。「富岳」は「京」の約100倍の性能と、世界最高水準の実用性を目指している [19] 。「富岳」は富士通独自のTofu Interconnect Dを使用して結合された158,976個のA64FXを使用している [20] 。 ソフトウェア [ 編集 ] 「富岳」は IHK/McKernel という名前の軽量マルチ カーネル オペレーティングシステムを使用している。このオペレーティングシステムは Linux と軽量カーネルの McKernel の両方を使用し、同時に並行して動作する。両方のカーネルが実行される インフラストラクチャー は Interface for Heterogeneous Kernels (IHK) と呼ばれる。高性能シミュレーションはMcKernelで実行され、Linuxは他の全ての POSIX 互換サービスで利用できる [21] [22] [23] 。 2020年6月、 国際スーパーコンピュータ会議 にて発表された TOP500 において1位となった。日本のスーパーコンピュータとしては、2011年6月・12月に「京」が1位となって以来9年ぶりである。また、物理現象をシミュレートするHPCG(High Performance Conjugate Gradient)、人工知能計算のベンチマークHPL-AI、ビッグデーター解析の Graph500 においても1位となり4冠を達成 [24] [25] 。その後、2020年11月、2021年6月及び11月の時点でも4部門で首位を維持し続け、4期連続の4冠を達成した [26] 。 この他、消費電力当たりの性能ランキング Green500 では2020年6月の時点で9位 [27] 。 価格性能比について [ 編集 ] 2018年、「富岳」の構築費用は1300億円(国費 1100億円、民間投資 200億円)と報道された [28] 。 ニューヨーク・タイムズ 紙は米国で計画中の「富岳」の性能を超えるエクサ級のスパコンのコストは最大でも6億ドルであるのに対して、10億ドルを超える「富岳」のコストを高額な支出と表現した [29] 。 なお、時期・用途・構成などは異なるが、当時の他の主なスーパーコンピュータ(計画中を含む)との性能・費用などの単純比較は下表の通り。 2018年(平成30年) 2019年(平成31年/令和元年) 2020年(令和2年) 2021年(令和3年) 3月9日、本格運用開始 [4] [48] [49] 。 4月28日、立教大学、神戸大学のチームが「富岳」を使ったシミュレーションで新型コロナウイルスの変異株が人の細胞と結合する力が従来種より高いことが証明できたと発表した [50] 。 4月30日、理化学研究所のグループが、「富岳」を使ったシミュレーションで新型コロナウイルス感染症で屋外でも屋内と同等の感染リスクがあることを証明したと発表した [51] [52] 。 6月28日 、「TOP500」、「HPCG」、「HPL-AI」、「 Graph500 」の4部門で世界ランキング1位を獲得。3期連続4冠 [53] 。 9月14日、千葉大学と名古屋大学の研究チームが 太陽 では 赤道 が極地方よりも速く自転するという「 差動回転 」を、「富岳」を用いた約54億点という超高解像度計算により人工的な仮説を用いずに再現することに成功したと発表した [54] [55] 。水素などのガスでできている太陽は赤道付近が北極・南極より速く自転しているが、コンピューターで再現できず、「熱対流の難問」と呼ばれ太陽物理学の長年の謎とされてきた [54] [55] 。論文は英科学誌「ネイチャー・アストロノミー」に2021年9月14日付けで掲載された [54] 。 11月13日、 末松信介 文部科学大臣 (当時)が視察に訪れる [56] 。 11月16日、「TOP500」、「HPCG」、「HPL-AI」、「Graph500」の4部門で世界ランキング1位を獲得。4期連続4冠 [57] 。 11月18日、大規模機械学習処理のベンチマーク「MLPerf HPC」の一つである「CosmoFlow」において、世界最高速度を達成し第1位を獲得 [58] 。 11月19日、「富岳」を用いた新型コロナウイルスの飛沫拡散計算が ゴードン・ベル賞 COVID-19研究特別賞を受賞した [59] 。 2022年(令和4年) 2月2日、理化学研究所や神戸大学などのチームが「富岳」による新型コロナウイルスの 変異株 「 オミクロン株 」のリスクの計算結果を発表 [60] 。マスクを着用しても、50センチメートル以内の近距離で会話すると、感染の確率が高まるとの結果を公表した [60] 。 5月17日、富士通と理化学研究所は、富士通の人工知能(AI)技術と理研のAI創薬シミュレーション技術を組み合わせ、ス
 · 
フォロー

CPUは命令レベル並列性を取り出して高速化し、いわゆるシングルスレッドに近い汎用計算を高速に実行することができるプロセッサです。GPUはデータ並列性、すなわち同じ操作を多くの要素データに対して一斉に実行するようなデータ並列のプログラムを高速に実行できるプロセッサで、特に画像処理に多数現れる行列積演算に特化していると言ってよいでしょう。

このようにCPU, GPUは高速に実行できるプログラムの種類が異なるので、両者ともに場面によっては必要です。例えばSPEC CPUintのベンチマークを実行するとIntelのCPUは非常に速いですが、GPUははるかに低速です。一方、行列積演算を浮動小数点データに対して実行すると、GPUはCPUよりはるかに高速(数倍から十数倍)です。

 · 
フォロー

医者と弁護士とどちらが優れていると思いますか?

それと同じことです。役割が違うものを比較して優劣をつける意味ありますか。

 · 
フォロー

まとめる意味が無いからです。

GPUは画像計算用の簡単な命令セットを大量に処理する事が必要であり、CPUは汎用の複雑な命令セットを処理することが必要であり、それぞれの目的が違うので同じ演算ユニットで行う事は無駄です(演算ユニットの設計目標が違うのだから) そもそも、昔はグラフィクスもCPUで行っていて、高解像度や3Dを高速化するためにグラフィクスエンジンを開発して分化したのだから。

パッケージとしてはまとめた物が多くありますが、グラフィクスは非常に高速なメモリバスを求めるため、帯域が非常に多く必要になり、そのためには端子密度や配線に関する事項が重要になる為、汎用のCPU・メモリソケットのような物を介することは課題が多くなるために無駄になります。 メインボード上のメインメモリをグラフィクスに用いるようなシステムでは、そのメモリ帯域上の問題により性能が大きく制限されます。

つまり、まとめることが出来ないのではなく、まとまっていた物を高性能化のためにあえて分けたのが現在の姿です。

 · 
フォロー

アーキテクチャと製造の視点があり、自分は製造側にいたことがあるのでその話をしたいと思います。

自分は15年ほど前に日本メーカーでロジックのFEOLの開発部門に在籍していました(IEDMに登壇したこともあります)。そこで感じたのは圧倒的な最適化の難しさ。パラメターが多い割には結果が出ることが数ヶ月後で、全然性能が出ないことはしょっちゅうでした。そんな中、intelが90nmでstrained-siliconといってスイッチ部分の横に別の物質を掘って埋め込み、性能を2倍に上げたものを市場に投入してきました。研究レベルではなく市場に投入です。これはかなり衝撃でした。日本でも研究レベルではやろうとした人はいたかもしれませんが、「ゴミが出る」、「汚染される」、「そもそも、、」とかいろいろ言われて、他社の実績無しでは多分試作すらできなかったと思います。

ここで感じたのが、海外メーカーは数人の天才・異才に指揮権を与えられているんだろうなということ。この部分でデメリットはあるけどこの部分が大きなメリットだからこれを適用する、という判断ができる体制があり、できる人がいること。分析が得意で直感にも優れた天才が指揮しないとCPUのような複雑なプロダクトで世界で戦うことはできないのを痛感しました。自分のいた部署、製造ラインのエンジニアは平均すると海外メーカーより全然優秀だと思いましたが、権限がフラットなので全体最適を取ることは至極困難でした(日本は一時期メモリで覇権を取りましたが、メモリは統合より各モジュールの平均で勝負できるので、「平均が高めの人が多い組織」で戦いになるのが突出した原因かと思います)。

いまの世の中はいままで以上に一部の変わった人を普通の人が支援する仕組みが重要になってきています。日本人は他人のやっていることに影でこそこそコメントするのを止めて、「やってみなよ、少し手伝うから!」というマインドの人が多くなると良いですね。

以下の記事もご参照ください。

AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?

広告
 · 
フォロー

CPUだけでなく、「電子立国」と呼ばれた日本の半導体産業が今や競争力を残しているのは製造装置や素材の分野か特定用途のデバイスだけです。ロジックやメモリーなどの製品分野でもファブを運用する製造ファウンドリーでも先端の競争にはもう参加していない、と認識するべきでしょう。

日本は20世紀の終わりまでは電気・電子に関わる全ての企業が何らかの形で半導体産業に首を突っ込んでいましたが、どこも選択と集中で何か強みを発揮して抜きん出ることもなく、世界規模の競争についていけずにダラダラと脱落していきました。もちろん市場環境や為替などの外的要因もあったとは思いますが、とにかく横並びでどこも頭ひとつ抜け出ることができませんでした。また資金力が弱いためにダイナミックに資本を投入して合併吸収を行う世界の競合についていけなかった、というのもあります。アジア通貨危機などで国レベルで経済的に追い込まれても世界の競争に踏みとどまった韓国勢とは対照的です。日本の半導体はメモリー=エルピーダ、ロジック=ルネサス、液晶=ジャパンディスプレイと敗者連合を組んで公的予算で救済する、という形で敗戦処理をしてきたのです。

CPUを開発する、というのが何を指すかです。新たなプロセッサのISAを作り出すのか、単に何かのISAのプロセッサ・コアを設計するのか、CPUを含むLSIやSOCを製造するのか。

新しいISAを作り出す試みは日本に限らず、多くが失敗に終わっています。結局プロセッサの価値はそれが実行するソフトウェアで決まります。ソフトウェア開発のエコシステムを構築するには製品と開発者への普及が欠かせず、その壁を乗り越えるビジネス的ハードルはとても高いです。日本企業が関わって新しいISAを開発して、それなりのビジネス規模の製品が展開されたのはPlayStation3用のCELL BEに採用されたSPUが最後ではないでしょうか?これも多用途のプロセッサとして開発されたものの、出荷数で言えばほぼPlayStation3専用であったと言えるでしょう。ISAとしてはx86がPCの標準CPUとしてそのソフトウェア資産の強みで君臨してきました。しかし、今やエンドユーザーデバイスとしてはARMを搭載したスマートフォンやタブレットの方が数多く出荷されており、MacのARMへの移行とともにx86の牙城が揺らぐ可能性もあります。またx86はプロプライエタリなISAで新規参入を法的にも排除してきましたが、ARMはオープンライセンスで、誰でもチップを作ることができます。そして近年はRISC-Vが注目されています。これはISA自体が完全にオープンソースになっており、ライセンス料を払う必要もありません。逆に新規のISAを作ることの意義はどんどん薄れているように思えます。

新しいコアの設計をするのはどうでしょう?ARMにはアーキテクチャ・ライセンスというISA互換で独自の実装を行えるライセンス形態があります。AppleやQualcommなど、独自のコアを開発している企業は独自の性能や機能強化のためにこの形態をとっているようですが、ほとんどの場合はARMが設計したコアをライセンスした方がはるかに手早いです。プロセッサ・コアを設計する事自体は設計環境さえあれば誰にでもできますが、検証や製造プロセスへの対応など自社で時間とコストをかけてもほとんどの場合割に会いません。RISC-Vはオープンなツールも揃っており、研究目的や新規分野の製品においては新たなコアを開発するベースとして魅力のあるアーキテクチャと言えます。

最後にLSIを開発・設計・製造する場合です。もちろん製造自体はファウンダリに委託してファブレスで行うとしても開発・設計をしたものをどうするのか、という事につきます。最新プロセスでそれなりの規模のLSIを開発・設計・検証・テープアウトして元を取るにはそれなりの製造数と売り上げが見込めないといけません。一部の組み込みやエンタープライズ向けのLSIはともかく、PCやスマートフォンなどの市場規模の大きいLSI市場には日本の半導体メーカーはもう食い込んでいません。

電子立国日本の時代はもう終わっているのです。

広告
 · 
フォロー

記事からの印象では、AIエンジンとしての性能に、既存のCPUコアのままではボトルネックが見られたので、それを解消するため、自社のGPUに最適化したCPUを内製して組み合わせる必要があったのでしょう。基本設計はARMのままだとありますので。

 · 
フォロー

グラフィックボードの話で良いですか?

CPUよりも速い計算、映像の描写を要求されるからです。

CPUでもゴリゴリの3Dを描写させることは可能ですが、CPU内のGPUはご存じのとおり小さく弱いものです。この小さく弱いものでは、キビキビ動く3Dの映像を所定どおりの速さで描写させることが出来ません。ゆっくりエラーを吐きながら、カクカク…と表示されるわけですね。これが描写の遅延です。

3D(ソフト)にはさまざまな規格があって、要求されるパワーに強弱があります。それらの3Dに対応できるよう、GPUはCPUよりもパワフルでないといけません。

それを裏付けるのが、メモリの存在です。GPUにもメモリが搭載されています。CPUで使用するメモリ(システムボード上の)はDDR4やDDR5ですが、GPUはDDR6です。これはCPUよりも速い計算をしないといけないので、GPUにはCPUよりも速いスピードで動作するメモリが必要というわけです。

細かい技術の話は、技術屋さんにお任せしたいところですが、およそ上記のような理由からですw

 · 
フォロー

日本が作ったスパコン用CPUというのは2012年6月に完成した『』のFujitsu製SPARC64 VIIIfxの事ですね。Fujitsuの45nmプロセスで自社製造しましたが、基本はSPARCです。2012年時点でも45nmプロセスは遅れた技術でした。

富士通自社工場で製造された最後のチップとなる「SPARC64 VIIIfx」

その後のスパコン『富岳』のCPUはA64FXです。ARM社のArmアーキテクチャを元にTSMCの7nmプロセスで作られています。これはさすがに「日本が作った」とは恥ずかしくて言えないでしょう。

汎用CPUかどうかは別にして、日本が高性能CPUを作れないのは、まずは日本のメーカーは独自のアーキテクチャを持たないので、CPUを作っても大抵はマネになります。スクラッチから高性能CPUを作るのはかなり難しいのです。

そして、現在の日本の半導体メーカーは最高でも、かなーーり昔の型遅れの40nmプロセスの製造ラインしか持たないので、これでは日本国内で高性能CPUは作れません。

汎用CPUも含むコントローラチップ(システムLSI)ならローエンド中のローエンドですがH8シリーズがあります。

 · 
フォロー

常時オンが基本です。

そもそもCPUの他にGPUも積んでいるってことは、CPU内蔵GPU(iGPU)の性能では物足りないので、より高性能な外部GPU(dGPU)を追加しているわけです。この状況でdGPUを切るのは、ただ性能を落とすだけです。もしiGPUに劣るdGPUを積んでいるのなら、そっちを改善すべきでしょう。

なんですが、ノートPCだとバッテリーで動作している時は、性能を犠牲にしても動作時間を長くしたいことがあり、その場合はdGPUをオフにするのはよく行われます。

またそれとは別に、ソフト側で描画アクセラレーションのオンオフが選べるものがあり、何のためにそうなっているかと言えば、オンだと表示が乱れたりの不具合が出る場合があるためです。そうなったらオフにして使ってくださいってことですね。この場合、原因はたいていGPUのドライバにあります。

と言うことで、GPUをわざわざオフにして意味があるのは、前述のような理由がある時に限られます。

 · 
フォロー

GPUは主に画面表示に使われるデータを処理するためのものです。そのデータの扱い方から他の演算処理にも使われることがありますが、その使命は、より綺麗な画面を作るためのデータをより速く処理することです。

CPUはすべての演算処理を扱います。個別にGPUがないマシンがあってもCPUは必ず有ります。 (そして最近のCPUはその内部にGPUを内蔵していることが多いです)

CPUはプログラムをできるだけ速く実行するよう特化されています。複数のプログラムを同時に行ったり、プログラムの先読みをしてあらかじめ答えを用意していたり、といった感じに計算処理としてはかなり複雑な事を行っています。

GPUは画像データをできるだけ速く処理するよう特化されています。計算そのものは(CPUと比較して)単純でも、読み込ませるデータが膨大なので、それに特化した造りになっています。

GPUが個別に搭載されていないマシンはCPUに内蔵されているGPUがその役割を担います。ただCPUの中にあるということは小さいということで、処理能力も限られ個別に搭載されているものと違って、キレイな画面をなめらかに表示することはできません。

 · 
フォロー

本当のことを言うと、今はIntelこそ資金に欠けてい方なのかもしれません。

当然、IntelとAMDの二社だけを比べるのなら、Intelの方が圧倒的に強いでしょうけど、今の半導体業界はもうそういう簡単なものではなくなっています。

まぁ、今回の第三世代Ryzenで見事なリベンジマッチを果たしたAMDの勝因を一言で言うのなら、スマホ市場の急速発展の追い風に乗ったから、ということなのでしょう。

さて、デスクトップ向けのCPUしか作ってないAMDはスマホ市場とどういった関係があるのでしょう、と思うかもしれませんが、これこそ今の半導体業界の不思議なところです。

今の半導体製造において、一番資金がかかるのは設計ではなく、デバイス製造(半導体デバイス製造 - Wikipedia)です。実際、CPUを設計できる会社は数多く存在していますが(Apple、サムソン、クアルコム、HUAWEIなどなど)、半導体デバイス製造を担う工場(ファウンドリ - Wikipedia)はそう多くありません。なぜなら半導体デバイス製造のプロセスが段々と細かくなるにつれ、その開発費用が飛躍的に跳ね上がるからです。

これを踏まえて、一回Intelの話をしましょう。Intelは自前のファウンドリを持っています。つまりIntelは自社だけでCPUの設計から製造を行うことができ、これに基づいてかつてはTick-TockというCPUのアーキテクチャーとプロセスを交互にテンポよく更新していく戦略を取っていました。しかし、実際は2015年からIntelのプロセス更新は14nmで停滞していて、今現在でも、Intelの10nm製品はモバイルノート用の低電圧CPUがメインであり、デスクトップ向けの第十世代Core iシリーズはまだ14nmを採用する予定とのことです。その原因ももちろん、10nmプロセスの開発がかなり難航している、としか言いようがりません。

ではAMDの方はどういうことになっているのでしょう?実はAMDも、昔はIntelと同じように自前のファウンドリを設けようとしたのです(GlobalFoundries - Wikipedia)。しかし、先ほども言った通りに、ファウンドリはものすごく資金がかかるものであるため、資金力でIntelに劣っているAMDでは当然うまくいかないはずです。Ryzenシリーズが登場するまで、AMDがずっとIntelに押されている理由もまさにこれでしょう。(まぁとは言っても、ATIとの合併やら、FXシリーズでCPU市場の発展を見誤ったやら、他にも色んな原因があると思いますが)

そして、第三世代Ryzenになって、AMDはデバイス製造をGlobalFoundriesにではなく、TSMCに委託することで、最新の7nmプロセスを使うことができ、これでようやくリベンジを果たしたというわけです。さて問題です、Intelですら10nmで難航しているのに、なぜTSMCはすでに7nmを量産できたのでしょう?ここで出てくるのがスマホ業界です。

実際、スマホはそのサイズ故、CPUの小さに対するこだわりはPCよりもずっと強い。なのでより細かいプロセスを求めることが必然になっています。しかしながら、スマホを作る会社でファウンドリを持っているのはサムソンぐらいしかありません。スマホCPUの生産(特にハイエンドモデルの)は、そのほとんどがTSMCに委託されています。これはつまりどういうことなのかというと、TSMCの7nmプロセスは自社だけではなく、スマホ業界全体から資金を得て開発したようなものになります。

なので、PCのCPU業界だけを見るなら、確かにIntel対AMDという構図になりますが、半導体業界全体でみるなら、これはIntel対AMD+TSMC+スマホ業界の各企業の戦いになります。Intelにいくら資金があっても、さすがにスマホ業界全体には勝てないということでしょう。もちろん、Intelとスマホ業界は直接な競争関係ではないが、AMDがスマホ業界の追い風に乗ったというのも、まぎれもない事実でしょう。

広告
 · 
フォロー
Heikki Kultala

質問に間違いがありますね。

2000個のコアが入ったGPUなんかありません。企業の広報は違った(間違った)方法で計算して数字を大きく見せています。

Radion 6900XTの本当のコア数(DCU)は、5120個ではなく、40個です。こちらでダイの写真を確認でき、4*5のコアが2グループあります。

各コア(DCU)には32レーンのSIMDユニットが4つあり、各コアには並列に動作する32 bitの浮動小数点演算ユニット(FMA)が128個あり、チップ全体としては32 bitのFMAが5120個同時に動きます。

Zen2とZen3のCPUコアはどちらも256 bit(32bitの8レーン)のSIMDによるFMAが2つあり、各コアは32 bitのFMAが16個同時に並列動作する能力があり、3800Xや5800Xのような8コアのCPUですと、チップ全体で32 bitのFMAが128個同時に動作します。

従ってCPUとGPUのコア数の違いは実際には数百個などではなく、せいぜい10倍以下で、並列実行できる実行ユニットの違いは20~40倍程度であり、数百倍までにはなりません。

質問への回答

しかしなぜCPUとGPUには並列実行に違いがあるのでしょうか。

それは違うコードを実行する必要があるからです。

CPU - 順次実行

汎用のプログラミング言語で書かれた普通のプログラムを実行するためにCPUは設計されています。

普通のプログラムを書くのに使われるプログラミング言語のほとんどは、処理を順番に記述する構成になっており、順次処理というプログラミングのパラダイムを基本にしています。この順次処理の制御の流れは、前の処理の結果が次の処理に影響するため、普通は効率よく並列化できません。ごく一部に限りコンパイラがマルチコアに適した並列処理に自動変換できます。たとえコア数が少ない場合でも、コードの大半を並列化するために、プログラマは懸命にマルチスレッドのコードを書かないといけません(つまり、より大変で、時間がかかり、バグりやすくなります)。

順次処理のコードを可能な限り早く走らせるようにCPUは最適化されています。ほとんどのプログラムにとっては順次処理が本当の問題だからです。もしプログラムの半分を並列処理で書けたとして、100万コアがあり、並列処理が100万コアを活用できたとしても、もう半分の順次処理の実行速度に変わりはなく、全体としては元のコードの2倍の速さになりません。

CPUは順次処理のコードをなるべく早く走らせるために、高度な分岐予測やストール(停止時間)を最小にするための巨大なキャッシュを持つ巨大で複雑なコアを持っています。実際の演算ユニットはトランジスタの数的にもコアのスペース的にも非常にわずかです。

これはAMD Zenコアの写真です。整数演算器が入っているALUは非常に小さく、FPUは浮動小数点演算やSIMDを実行する演算器が入っています。L1D$、L1I$、L2$はキャッシュメモリ、BPUは分岐予測器で、次に実行する分岐先を予測してストールを最小にします。

GPU - 並列実行

一方GPUは並列処理に高度に特化しています。プログラム全体を実行する能力はありません。プログラムのごく一部にあたる高度に並列化された処理だけがGPUに送られて実行されます。そのためにプログラムはたくさん働いてGPUで実行するコードを生成します。

スクリーンにドットを描く処理はめちゃくちゃ並列化できる数少ない処理の1つです。もし1画面に800万ドットがある場合、1ドットを打つのにたくさんの計算をする必要があり、論理的にはその800万ドットの処理全てを並列化できます。

グラフィック処理は本質的に高度な並列処理で、ここ10年弱でグラフィックと全く関係のない計算を並列実行できるようになりましたが、並列処理ユニットは元々はグラフィック処理のためにGPUとして登場したのです。

 · 
フォロー
 · 
フォロー
広告
 · 
フォロー

ぜんぜん違います。むしろ共通点は演算処理を行うと言うことだけだと思った方がいいかも知れません。

CPUは、複雑でさまざまな処理ができる高性能なコアが少数(1~16個ほど)入っています。対してGPUは、割合決まった処理しかできない単純なコアが多数(数百個)入っています。

単純なコアがどれほどのものか?かつてのGPUではプログラムが実行できなかったと言えば、イメージできるでしょうか。実はGPUでグラフィックの描画処理以外のことが処理できるようになったのは、ここ10年ほどのことで、それ以前はCPUから指示された描画のための演算をひたすら実行し、表示するのがGPUの仕事の全てでした。

単純なコアでどうして高速にできるか疑問に思うかも知れませんが、理由は案外簡単です。画面上には処理しなければいけないドットが多量にあるものの、それぞれに必要な処理というのはパターン化された演算処理が大半なので、処理するのにCPUのような高度なコアは必要ありません。単純化された小さいコアで間に合います。で、そうした小さいコアなら多量に準備してもチップ上に収まるし、そうした多量のコアを並列にして「せ~の!」で処理すれば高速にできるっていう。

 · 
フォロー中
Franklin Veaux

CPUやGPUのパッケージを開けると、小さな正方形や長方形のシリコンを見ることができます。

この小さなシリコンは、顕微鏡で見ない限り、あまり面白いものには見えません。少し拡大して見てみると、高度に構造化されており、表面のごく薄い層が、浮き彫りにされているように見えることがわかると思います。

この小さな四角形は、非常に大きな丸いシリコンウェハーの上に作られ──

──それを切り離してパッケージに封入されています。

近くで見ないとわからないくらいの、かすかな模様なのです。

顕微鏡で見ると、こんな感じです。

このパターンは、シリコンの表面に酸で物理的にエッチングされたトランジスタでできています。普通の顕微鏡では、トランジスタは小さすぎて見えません。可視光顕微鏡でも解像できない。それほどまでに小さいのです。可視光線の波長よりも小さいんですよ。とても小さい。

最近のチップには、40億個以上のトランジスタが埋め込まれているんです。このトランジスタは、髪の毛の何千倍も小さな配線で結ばれており、最新のプロセッサーでは、文字通り何マイルもの配線が施されていることもあるのです。

電子顕微鏡で見ると、このように見えます。

つまり、小さな四角いシリコンに、電子顕微鏡でなければ見えないほど小さな数十億個のトランジスタがエッチングされ、わずか数十原子の厚さの接続によって互いに接続されているのです。

すべての魔法は、人間には理解しがたいほど小さなスケールで起こっているのです。

すべての魔法は、とても小さなスケールで起こっていて、人間はそれを理解するのに苦労します。

0 件のコメント:

コメントを投稿