「サーバの消費電力」がAI・機械学習の足を引っ張る? 高性能ならではの苦しみとは
- ありがとうございます!
- いいね!した記事一覧をみる
広がるAI・機械学習活用で生じる高性能サーバの“消費電力問題”
少し前までは一部の用途で使われていたAI・機械学習といった最新テクノロジーは、いまや多くの企業のさまざまな領域で活用されるようになった。そのニーズは拡大する一方にあり、今後はさらに活用領域が拡大していくのは間違いないだろう。しかし一方、企業におけるAI・機械学習の利活用が盛んになるに従って新たな課題に直面することとなった。その最大の原因となるのが、AI・機械学習で用いられるGPUサーバやHPC(ハイパフォーマンスコンピューティング)サーバが消費する“膨大な電力”にある。
これまでは、1ラックに40Uほどの台数を収容していたのに対し、AI・機械学習用途のサーバは1台でも非常に高い電力を必要とするため、ラック内の収容スペースに余裕があっても1ラックに1台しか収容できないことが一般的だ。
つまり、既存サーバの集約や新システムの構築のために高性能のサーバを1ラックに高集積したいと望んでも、供給電力が足りないことで頭を悩ませている企業は多い。もちろん、AI・機械学習を活用するメリットは言うまでもないため、なるべくたくさんのラックを借りずにこれらのサーバを利用したいところだ。GPUサーバやHPCサーバの“消費電力問題”に対して、企業は諦めざるを得ないのだろうか?
今すぐビジネス+IT会員にご登録ください。
すべて無料!今日から使える、仕事に役立つ情報満載!
-
ここでしか見られない
2万本超のオリジナル記事・動画・資料が見放題!
-
完全無料
登録料・月額料なし、完全無料で使い放題!
-
トレンドを聞いて学ぶ
年間1000本超の厳選セミナーに参加し放題!
-
興味関心のみ厳選
トピック(タグ)をフォローして自動収集!