0
会員になると、いいね!でマイページに保存できます。
国内外で関心が高まるChatGPTやStable Diffusion。これらのジェネレーティブAIの技術の開発とデプロイに必須となるのがAIチップだ。同市場では、エヌビディアが圧倒的なシェアを占めているが、競合の動きも活発化している。直近では、グーグルが独自に開発するAIチップとそれらを統合したスパコンの分析結果を公開し、エヌビディアの主要モデルのパフォーマンスを超えたことを明らかにした。AIチップ市場における最新動向を探ってみたい。
AIチップ市場、エヌビディアの牙城にグーグルが切り込み
ChatGPTなどのチャットAIのベースとなるのが大規模言語モデルだが、これらの開発には非常に大きな計算処理能力が必要で、その計算を可能にするハードウエアの存在が重要となる。現在、AI開発用のコンピュータチップ市場においてほぼ独占的なシェアを占めているのがエヌビディアだ。
CNBCによると、AIモデルのトレーニングとデプロイメントにおけるエヌビディアのシェアは90%以上に上るという。
このエヌビディアの牙城にグーグルが切り込む構えを強めている。2023年4月、グーグルの研究者らは、AI開発を加速するスーパーコンピュータに関する
論文を発表、その中でグーグルが開発しているコンピュータチップTPU(Tensor Processing Unit)の4世代目となる「TPUv4」で構築されたスーパーコンピュータがNVDIAの人気GPU(Graphic Processing Uni)モデル「A100」に比べ1.2~1.7倍高速で、消費電力を1.3~1.9倍低く抑えられたと報告しているのだ。
このA100は、2020年にリリースされたモデルで、これまでにChatGPTを含めさまざまなAIプロダクトの開発で
活用されてきた。通常、こうしたAI開発では、数百~数千のチップが統合され、データの学習を行う。A100の価格は1万~3万ドルほどと、メモリ数などによって異なる。TPUv4のリリースも2020年だった。
市場を席巻するエヌビディアに対抗し、グーグルは2016年頃からTPUの開発を行っている。しかし社内では、開発やイノベーションの商業化で他社に後れをとっているとの危機感が膨らんでおり、最近になり市場での存在感を示すため、内部での製品リリース競争が
激化しているという。
上記の論文は、TPUv4を4096個つなげたスーパーコンピュータを構築し、同社が開発しているチャットAI「Bard」の新大規模言語モデルPaLMの学習にも活用したと報告している。また、TPUv4ベースのスパコンは、すでにグーグルクラウドを介してデプロイ済みとのこと。
グーグルのパフォーマンスは不十分?
グーグルは、同社が開発するAIスパコンがエヌビディアの主要AIチップ「A100」のパフォーマンスを上回ったと主張しているが、エヌビディアに対抗するには、さらに踏み込んだチップ開発が必要となる。
上記論文でも触れられているが、TPUv4と比較されたのは、2020年にリリースされたA100で、2022年にリリースされた後継モデル「H100」との比較が行われていないためだ。
同論文では、H100との比較を実施しなかった理由として、H100がリリースされて間もないモデルであり、グーグルにおける比較研究の慣例に沿わなかったこと、またTPUv4とA100がともに2020年にリリースされた7ナノメートル技術のチップであり同列の比較ができること、2022年の同論文の研究段階では、AWS、Azure、グーグルクラウドでH100がまだ利用できなかったことを挙げている。比較するのであれば、TPUv4の後継モデルで、4ナノメートル技術で開発されたチップが好ましいとしている。
ちなみにH100は、A100に比べ、AIのデータ学習で最大9倍、推論で30倍のパフォーマンスを
発揮できるといわれている。マイクロソフトは、同社のクラウドサービスAzureにH100を
導入し、クラウド上で8個から最大で数千個のH100GPUを使用できるようになった。
【次ページ】アマゾンもAIチップ開発へ、3倍のコンピューティングパワーを発揮
関連タグ