0
会員になると、いいね!でマイページに保存できます。
最近、メディアであまり聞かれなくなった「AIの開発動向」。しかし、水面下では、テック大手が着実に投資・研究開発を進めている。メタ(旧フェイスブック)がこのほど発表したスパコン開発計画では、世界最速の「AIスパコン」が2022年半ばには登場するという。マイクロソフトやNVIDIAも独自にAIスパコンを開発し、AIを飛躍させようとしている。ここでは、AIスパコン開発の最新動向をお伝えしたい。
激化するAIスパコン開発競争
米テック大手企業の間で人工知能(AI)に特化したスーパーコンピューター(AIスパコン)の開発競争が激化の様相だ。
メタはこのほど、同社が開発を進めるAIスパコン「AIリサーチ・スーパークラスター(RSC)」のフェーズ2へのアップグレードを2022年半ばまでに完了させる計画を明らかにした。同社によると、フェーズ2が完了すると、AIスパコンとしては世界最速になるという。
このほかマイクロソフトやNVIDIAもAIスパコン開発に取り組んでいる。
そもそもAIスパコンとは既存のスパコンとどう違うのか、またAIスパコンの登場で何がどう変わるのか。AIスパコン開発の最前線を追ってみたい。
メタのAIスパコン開発計画、2022年中に世界最速目指す
まず、メタのAIスパコン開発状況をみていこう。
2022年1月24日、メタは同社が独自に開発しているAIスパコン「AI Research Super Cluster(RSC)」に関して現行のフェーズ1からフェーズ2へのアップグレードを実施中で、2022年半ばまでに完成させる計画を
発表した。
メタがAIスパコン開発に大きく舵を切ったのは2017年頃。NVIDIAのGPU「V100 Tensor Core」を2万2000枚搭載したAIスパコンを開発し、言語モデルや画像認識モデルの学習を実施してきた。
日進月歩で進化するGPUの世界。2020年には、V100の性能を大幅に上回るNVIDIAの「A100」が登場したことで、メタはこのA100をベースとするAIスパコン開発にシフトした。これがRSCの第1フェーズとなる。
第1フェーズでは、A100 GPUを6080枚導入。これらを760基のNVIDIA DGX A100システムで運用している。
Lambdaのベンチマークテストによると、GPU単体の比較では、PyTorchによる言語モデルを32ビットで学習をさせると、A100はV100に比べ3.4倍速いことが
明らかになっている。
GPU単体の性能が向上したことに加え、ネットワーク速度の向上や最適化、ストレージの書き込み・読み込み速度の向上も相まって、通常のマシンビジョン関連のリサーチタスクでは、RSC(第1フェーズ)は、V100ベースのAIスパコンより20倍速いパフォーマンスを
示しているという。
このRSCの第1フェーズをさらに飛躍させようというのが、今回発表された第2フェーズとなる。
第2フェーズでは、GPUの数が6080枚から1万6000枚に拡張される予定で、AI学習のパフォーマンスは2.5倍速くなる見込みという。これに伴い、ストレージの帯域幅は、毎秒16TBを実現し、さらには必要に応じてエクサバイトにまで拡張できる能力を有するものになるとのことだ。
メタがAIスパコンを開発する理由
世界最速を謳うAIスパコンの開発で、メタは何を目指すのか。
大きくは、学習するデータ、また回数を大幅に増やすことで、各領域のAIモデルをブラッシュアップさせ、それを現在のプロダクトやサービスに組み込み、他社との差別化を図ることが目的とみてとれる。特に、メタバースビジネスにおける強固なポジションを確立する上で、重要なテクノロジーになるのは間違いないはず。
実際、上記フェーズ2の発表では、コンピュータービジョン、自然言語処理、音声認識などの分野がAIスパコンの恩恵を受けると説明。その上で最終的には、これらのテクノロジーをARやメタバースに活用すると明言している。
たとえば、自然言語処理と音声認識分野におけるAIモデルの精度がさらに高まれば、バーチャルプラットフォーム上で世界各地の人々の会話を同時に翻訳し、自然な会話を成立させることが可能となる。
これは、フェイスブックやインスタグラムなど既存のソーシャルメディアのユーザーを増やす・維持する上で、大きなアドバンテージになる。また、AR空間やメタバースにおいても、魅力を高めるセールスポイントになる。
【次ページ】マイクロソフトのAIスパコン、巨大AIモデルの構築へ
関連タグ