電子デバイス産業新聞(旧半導体産業新聞)
新聞情報紙のご案内・ご購読 書籍のご案内・ご購入 セミナー/イベントのご案内 広告のご案内
第590回

GMOインターネットグループ(株) ドメイン・ホスティング事業本部 ConoHa事業部 部長 刀根一之氏


GPUクラウドサービスを計画
100億円規模のサーバーを取得へ

2024/8/30

GMOインターネットグループ(株) ドメイン・ホスティング事業本部 ConoHa事業部 部長 刀根一之氏
 GMOインターネットグループ(株)(東京都渋谷区)は、様々なインターネット関連サービスで国内トップのシェアを誇る総合インターネット企業グループとして知られる。GMOインターネットグループでは、AIの急速な発展に対応し、「AIで未来を創る№1企業グループへ」をテーマに掲げ、グループ全体で生成AIの活用を進めている。そのなかで新たな取り組みとして、GPUクラウドサービスの準備を進めており、重要な取り組みと位置づけられている。今回、ドメイン・ホスティング事業本部ConoHa事業部 部長の刀根一之氏に話を伺った。

―― まずはConoHa事業の内容から伺います。
 刀根 当社は、総合インターネットグループとして、インターネットインフラ事業、インターネット広告・メディア事業、インターネット金融事業、暗号資産事業など様々な事業を展開するなか、クラウド・ホスティング関連の取り組みについても国内シェア58.9%(domaintools.com調べ)を誇る。そのなかの1つで、私が所属するConoHa事業部では、ブログやHP作成に最適な国内最速(2024年4月末時点、GMOインターネットグループ調べ)レンタルサーバー「ConoHa WING」をはじめ、よりサーバーを自由にカスタマイズ・構築することが可能な「ConoHa VPS」、Windows OSを利用される方向けの「ConoHa for Windows」、ゲームテンプレートが無料で使えるゲームユーザー向けの「ConoHa for GAME」など、お客様のご利用目的に応じたサービスを展開している。
 また、23年11月に既存サービスの質向上の取り組みとして、国内クラウド事業者として「NVIDIA H100 Tensor core GPU」と「NVIDIA L4 Tensor core GPU」を搭載した「GPUサーバー」の提供を開始した。そして、GMOインターネットグループの「AI産業への新サービス提供」の新たな取り組みとしてGPUクラウドサービスの準備を進めている。

―― その取り組みが始まった経緯について教えて下さい。
 刀根 22年末に経済安全保障推進法における特定重要物資の1つとしてクラウドプログラムが指定され、次世代に向けた基盤クラウドプログラムの開発に必要な生産基盤の整備を国として支援する方針が示された。加えて、AI市場の拡大が見込まれるなか、AIに関する計算インフラの重要性も高まっていくことが予想されている。こうしたなか、クラウド・ホスティング関連の事業で高いシェアをいただいている当社としては生成AIのインフラも、やはり私たちが全力で、リスクを取って、普及させるべきであろうという結論に達し、AIの開発を支援する体制を整備する必要があると考えた。

―― これまでの取り組みについて。
 刀根 23年12月にエヌビディア社とパートナー契約を締結し、2月に100億円規模のGPUサーバーを取得する方針を発表した。そして4月に経済安全保障推進法に基づくクラウドプログラムの供給確保計画に関して経済産業省から認定を受けた。今後の展開では、国内のホスティング事業者として「NVIDIA H200 Tensor core GPU」(NVIDIA H200 GPU)を採用した超高速の生成AI向けGPUクラウドサービスの提供を12月から開始する予定だ。まずは、NVIDIA H200 GPUを約800基採用したGPUサーバーをクラウド環境で構築する予定で、6月には、GPUクラウドサービスにエヌビディアの「NVIDIA Spectrum-Xイーサネットネットワークプラットフォーム」を国内クラウド事業者として初めて採用することも発表した。NVIDIA Spectrum-XはAIワークロード専用に設計された世界初のイーサネットファブリックであり、生成AIネットワークのパフォーマンスを飛躍的に向上させる。

H200採用のサービスを提供へ
H200採用のサービスを提供へ
―― サービスを展開するうえでの貴社の強みは。
 刀根 国内の生成AIにおけるインフラ環境の課題として、大規模モデル開発におけるユースケースを正しく把握できていないため、GPUの提供のみが先行してしまい、本来必要な複数台のGPU利用時にスケールできる広帯域ネットワークや高速スループットのストレージが提供されておらず、AI開発会社の開発期間が長期化し、コスト増加につながっていると思う。NVIDIA H200 GPU、Spectrum-Xの採用により、お客様の開発期間の短縮、ひいては開発コストの低減にも貢献できるとみている。さらに、HPC(ハイパフォーマンスコンピューティング)やAIなどの分野で世界トップクラスのシェアを誇るDDN(データダイレクト・ネットワークス)の共有型ストレージなど、インフラのチューニング不要な超高速環境を準備することで、サービスの利用者がモデル開発に集中できるような環境を提供する。価格帯についてもメガクラウドに比べて低コストを実現したいと考えており、優れたコストパフォーマンスを感じていただけるようなサービスにしていきたいと思う。

―― 今後の方針について。
 刀根 経済産業省が生成AIの開発力を強化していくため、基盤モデルの開発に必要な計算資源に関する支援や関係者間の連携を促すプロジェクト「GENIAC」(Generative AI Accelerator Challenge)を2月に立ち上げるなど国レベルで生成AIのモデル開発が加速するなか、その計算資源としてGPUサーバーなどのAIインフラも重要となることは間違いなく、当社としてもまずは12月のサービスインに向けて全力を挙げる。当初はAI学習に関する取り組みが中心となるとみているが、モデル開発が進むにつれて、AI推論に関するインフラ需要も高まっていくとみており、中期的にはそうした需要にも対応できるサービス群を整えていきたいと思う。



(聞き手・副編集長 浮島哲志)
本紙2024年8月29日号3面 掲載

サイト内検索