人工知能(AI)は、人間が自然に行うタスクをコンピューターに学習させる機械学習の進化と共に性能が飛躍的に高まり、今やデジタルトランスフォーメーション(DX)やデジタルシフトを支える技術として、ビジネスや日常生活に広く浸透しつつあります。
今日のAIは、脳神経回路をモデルとしたニューラルネットワークを利用する機械学習の一手法であるディープラーニング(深層学習)を発展させて進化してきました。そして、「ChatGPT」に代表される生成AIはこのディープラーニングと膨大なデータセットを組み合わせた大規模言語モデル(以下、LLM:Large Language Models)を活用することで学習・推論能力を大幅に向上させ、その精度を高めてきました。
LLMを用いた学習・推論には膨大な計算処理が必要になり、しかもその量は年を追って指数関数的に伸びています。現在、AIの膨大な計算処理を高速化させるAIアクセラレータとしては、主に画像演算処理装置(以下、GPU:Graphic Processing Unit)が使われています。
GPUはもともとの用途だった画像・映像処理やゲーミング分野だけでなく、より幅広い用途で使えるよう汎用性を高め、HPC(*1)など高い計算能力が必要な分野で広く採用が進んでいます。このGPUの持つ、高速で大規模な並列演算処理能力は、まさに生成AIの計算処理に求められるものであり、GPUの爆発的な需要拡大につながりました。
(*1)High Performance Computing。多数のCPUを用いた並行処理により、大量のデータを計算し、非常に複雑なコンピューティングをほぼリアルタイムで行うことができる技術
このGPU市場をけん引しているのが米国のNVIDIAです(関連記事:DXよもやま話◎AI技術を支える半導体「GPU」)。2022年秋から出荷された同社の汎用GPU「H100 Tensor Core GPU」は、爆発的なAIブームもあって世界中で品薄状態が続いています。
競合他社やベンチャー企業、Google、Amazon.comなどもAI半導体の開発を進めてはいますが、NVIDIAはAI分野で先行してきた実績に加えて、開発環境が整備されていることなどから、多くの開発者の支持を得ています。当面の課題は供給力の確保が指摘されていますが、それでも盤石な地位を築いているように見えます。
AI半導体とは? AIアクセラレータやGPUの違いは何か AI向けの半導体チップが語られる場合、「AI半導体」や「AIアクセラレータ」などの言葉が登場します。何が違うのでしょうか。 基本的にAI半導体とはAIの処理を行うチップの総称であり、具体的にはAIアクセラレータ、GPUやCPU、FPGA(*2)、専用のカスタムチップなどが含まれます。 (*2)Field Programmable Gate Array。セミカスタムチップの一つであるゲートアレイのような構造を持ち、必要に応じてプログラムを後から書き換えられる論理回路 AIアクセラレータには厳密な定義はないようですが、アクセラレータとは一般的に、特定の処理を高速化させる回路や部品を指しますので、AIのメインの処理であり、特に計算量の多い学習・推論を高速に処理する半導体やモジュールなどを指す場合が多いようです。 ただ、昨今の巨大なLLMを用いて膨大なデータ量を計算するAIの処理には、高速で大規模な並列処理を得意とするGPUが適しているため世界中でGPUが使われています。このため、競合メーカーもGPUと同様の回路構造と処理能力を持つAIアクセラレータで反転攻勢をかけようとしています。 このような状況から、「AI半導体」や「AIアクセラレータ」、さらに「GPU」は、実質的にほぼ同義語として使われていることが多いのではないかとみられます。 |
「Instinct MI300シリーズ」などを投入したAMD
このような“NVIDIA一強体制”に待ったをかけようとしているのが、パソコンやサーバ向けのCPUメーカーの大手である米国のIntelやAMD(Advanced Micro Devices)です。
CPU(Central Processing Unit/中央演算処理装置)はコンピューター全体の逐次処理を行う回路構成で、複雑な命令に強いのが特徴です。しかし、単純で大規模な計算を高速にこなすのはあまり得意ではなく、単純高速処理が求められるAI分野ではNVIDIAの牙城をなかなか切り崩せずにいました。
そうした中で、AMDのリサ・スー(Lisa Su)CEOは、2023年12月開催の自社イベント「Advancing AI」で登壇し、“AI is absolutely number one priority at AMD(AIはAMDにとって絶対にトッププライオリティだ)”と述べ、AIが最重点分野であることを強調。
これを受けて、同イベントでは、AIアクセラレータおよびデータセンター向けAPU(*3)で構成される「AMD Instinct MI300」シリーズや、Instinct向けオープンソフトウェアスタックの最新版でLLM向けに最適化を図った「ROCm6」、AIアクセラレータ「Ryzen AI」を搭載したAPU「Ryzen 8040」シリーズなどの新たな製品群を紹介しました。
(*3)Accelerated Processing Unit。GPU統合型のCPU
Instinct MI300シリーズには「Instinct MI300X」や「Instinct MI300A」などのモデルが用意されています。Instinct MI300XはAI学習・推論向けで、処理の負荷を削減し電力効率を高めつつ命令レベルの並列性を向上させることで、計算スループットを強化。304個のGPUを搭載している他、メモリ容量はNVIDIAのH200を上回る192Gバイト、メモリ帯域幅も同じく最大で毎秒5.3Tバイトとしました。
Instinct MI300AはHPC向けにInstinctとサーバ向けCPU「AMD EPYC」の性能を共有メモリと組み合わせたAPUです。228個のGPU演算ユニットと24個のCPU「Zen 4」コアを組み込み、メモリ帯域幅は最大で毎秒5.3Tバイト、メモリ容量は128Gバイトとなっています。
こうした特徴を備えたInstinct MI300シリーズの提供が開始されたこと、そしてMicrosoftやOracleなどに採用されたことなどもあって、AMDは攻勢をかけつつあります。
Intelは「Vision 2024」でAI向け新製品を発表
Intelは2024年4月、顧客やパートナー向けカンファレンス「Intel Vision 2024」において、顧客のAI開発プロセスの短縮、AIシステム構築のコスト削減に向けたエンタープライズAI向けの戦略や、次世代製品・サービスを紹介しました。
具体的には、CPUの「Intel Xeonプロセッサー」や「Intel Core Ultraプロセッサー」、AI演算処理システム「Gaudi(ガウディ)」の各プラットフォームをベースにハードウェアやソフトウェア、サービスを充実させています。
特に、Gaudiの最新版「Gaudi 3」は、メモリ帯域幅は毎秒3.7Tバイト、メモリ容量は128Gバイトとし、従来製品の「Gaudi 2」から性能を大幅に引き上げられました。Metaなどのクラウドサービスプロバイダーが用いているLLMで学習・推論を計算処理した場合に、NVIDIAのH100と比べて1.7倍の高速化や2.3倍の電力効率が可能になるなど、高いパフォーマンスが実現されました。
また、新しい「Intel Xeon 6プロセッサー」では、電力効率を最大限に重視したタイプと性能を重視したタイプをラインアップしました。2024年内にリリースが予定されている次世代のCore Ultra(開発コード名「Lunar Lake」)では、高性能なNPU(*4)を搭載する予定としています。
(*4)Neural Processing Unit。人間の脳神経系を模したAI専用プロセッサーで、次世代のCPUにNPUを組み込むことで、CPU(およびパソコン)のAI処理能力を大幅に引き上げられる
さらなる性能アップで対抗するNVIDIA
とはいえ、NVIDIAも負けてはいません。2024年3月には、既存製品であるH100 Tensor Core GPUの後継モデルとなる「H200 Tensor Core GPU」の出荷を開始。H100と比べて、メモリ帯域幅は1.4倍の毎秒4.8テラバイト、メモリ容量は1.8倍の141ギガバイトと大幅な性能向上を図りました。
さらに、NVIDIAは2024年3月に開催した年次開発者会議「GTC2024」において、さまざまな取り組みや新製品を発表しました。特に、新たな「NVIDIA Blackwell GPU」アーキテクチャや、これを用いたプラットフォームで従来から性能を高めたことは注目です。
2080億個のトランジスタを集積した高性能なGPU「NVIDIA Blackwell B200 Tensor Core GPU」に加え、2個のB200と1個の「NVIDIA Grace CPU」を組み込んだ「GB200 Grace Blackwell Superchip」は、LLMの推論処理において、自社のH100と比べ、最大30倍の性能向上を実現し、コストとエネルギー消費量を最大25%削減するとしています。
同社は、大幅に性能を高めたこれら新製品などにより、AI半導体における優位性を維持・拡大していく方針です。
こうした大規模で高性能なチップの製造に関しては、NVIDIAとAMDともその多くを半導体受託製造の世界最大手であるTaiwan Semiconductor Manufacturing(TSMC)に委託し、TSMCの先端製造プロセスを活用しています。
自社生産を基本とし、米国政府の補助金交付を受けるなどして新工場建設に意欲的なIntelも、昨今はTSMCの先端プロセスを活用する割合が高くなっています。いずれにしても、需要の急拡大に追い付かず供給不足が懸念されているAI半導体ですが、プレーヤーの増加と生産体制の増強により同課題の解決が期待されます。
産業基盤強化へ積極的な国内投資を 官民連携による、2040年ごろの中長期的な未来を見据えた総合的な産業戦略を確立するべき――。日本経済団体連合会(経団連)は2024年4月に公表した「日本産業の再飛躍へ~長期戦略にもとづく産業基盤強化を求める~」と題した提言の中で、企業のイノベーション・付加価値創出力、グローバルに稼ぐ力の強化を目指し、長期戦略に基づく産業基盤の強化を要請するとともに、そのための具体的な施策を示しました。 同提言では、日本の産業が進むべき方向性の一つとして、イノベーションを軸とした高付加価値な産業の強化へと舵を切ること、社会のあらゆる面でデジタル技術を導入し、徹底的な省人化・省力化を図ることが掲げられています。 デジタル基盤の強化としては、①AI・ロボットによる省人化と②半導体の競争力強化の必要性が指摘されています。 特に②では、DX推進の計算・処理基盤となる半導体産業の競争力を強化するために、日本の強みである製造装置や材料などを伸ばしつつ産学官連携の取り組みを加速させるとしました。 加えて、海外が主導権を握る最先端のAI半導体や、それに付属する高速メモリ技術に関連する装置・材料の供給力強化、中長期的な先端ロジック半導体等の設計・製造に向けた産学官連携などを打ち出しています。 日本国内でも、半導体受託製造の世界最大手であるTaiwan Semiconductor Manufacturing(TSMC)の熊本進出をはじめ、計画段階を含めて大型投資案件が増えてきています。そのすべてがAI半導体向けというわけではありませんが、「ニッポン半導体」の復権を期待したいところです。 |
AIの開発競争は、半導体メーカーだけに限ったことではありません。GoogleやAmazon.com、Metaといったクラウドサービスプロバイダーをも巻き込んだ展開となりつつあります。
彼らは、大規模な計算能力の実行が可能なAIアクセラレータを用いて、一段とAIデータセンターの処理能力を大幅に引き上げ、それぞれ独自のLLMを開発してAIの精度を高めて競争力を強化し、運営するサービスを充実させて競合に対抗しようとしています。
例えば、韓国内で検索サービス最大手のネイバーはIntelとの協業により生成AI向け半導体拠点を新設。前述した同社のGaudiを基盤としたソフトウェアを開発することを明らかにしました。
AI半導体における開発競争が激しさを増すほど、生成AIをはじめとしたAIの学習能力や精度も急速に進化することは容易に想像できます。同時にビジネスや日常生活の幅広い分野へAIの浸透が加速していくのではないでしょうか。
ここがポイント! |
●AI半導体ではGPUが市場を席巻しており、GPUの最大手であるNVIDIAが独り勝ち。 |
●この状況に風穴を開けようと、大手CPUメーカーのAMDとIntelが新製品を相次いで投入して攻勢。 |
●NVIDIAもこれに対応してさらなる高性能なGPUを開発し、優位性を確保 |
●今後も成長が見込まれるAI分野で覇権を握るべく、主要半導体メーカーの熾烈な開発競争が続く見通し。 |
関連記事
DXよもやま話◎AI技術を支える半導体「GPU」外部リンク
NVIDIAのホームページ(日本語版) Intelのホームページ(日本語版) AMDのホームページ(日本語版) 経団連「日本産業の再飛躍へ~長期戦略にもとづく産業基盤強化を求める~」
無料会員のメリット
- Merit 1 -
企業向けIT活用事例情報のPDFデータをダウンロードし放題!
- Merit 2 -
本サイト「中小企業×DX」をはじめ、BCNのWEBメディア(「週刊BCN+」「BCN+R」など)の会員限定記事が読み放題!
- Merit 3 -
メールマガジンを毎日配信(土日祝を除く)※設定で変更可能
- Merit 4 -
イベント・セミナー情報の告知が可能!自社イベント・セミナーを無料でPRできる
- Merit 5 -
企業向けIT製品の活用事例の掲載が可能!自社製品の活用事例を無料でPRできる
無料会員登録で自社製品の事例をPR!
企業向けIT製品の活用(導入)事例情報を無料で登録可能!
新規で会員登録される方は会員登録ページ、(すでに会員の方は、会員情報変更ページ)より、会員登録フォーム内の「ITベンダー登録」欄で「申請する」にチェックを入れてください。
未会員の方はこちら