さくマガ公式SNS
お問い合わせ

「国内で一番使いやすいGPUサービス」を目指す。さくらインターネット新サービス「高火力 DOK」のエンジニアにインタビュー

コンテナー型GPUクラウドサービス 高火力 DOK(ドック)
>>サービスの詳細を見る

近年、生成AIや機械学習の発展により、膨大な計算リソースの需要が急増しています。そうした背景のもと、さくらインターネットは、企業や研究機関が手軽に利用できるGPUインフラサービス「高火力シリーズ」を提供しています。そんななかで、2024年6月に提供開始された「高火力 DOK」は、実行環境をパッケージングしたDockerイメージを用意していただくだけで、開発環境の構築や設定の必要なく、毎回同じ環境で、GPUを使ったタスク実行処理ができるコンテナー型GPUクラウドサービスです。1秒単位の時間課金で利用でき、高性能な計算資源を効率的にシェアする仕組みを提供します。

高火力 DOK開発の背景や現在の状況、これからの取り組みについて、クラウド事業本部 事業開発部の奥原 史至と、同事業本部 テクノロジー室の芦野 光に話を聞きました。

スパコンの「順番待ち」に一石、民間の開発需要に対応

2024年6月の提供開始からおよそ7か月が経ちました。高火力 DOKの現在の利用状況はいかがですか?

奥原

現在、研究機関を中心にアカウント開設が急増しています。とくに民間の研究所や企業の研究開発部門などの、高度な計算機器を自社で保有するのは難しく、しかし開発にあたっては高度な計算リソースを「少しだけ使いたい」と考えているユーザーからの引き合いが増えていると感じます。

芦野

大学の研究室からの問い合わせも多いです。民間の研究機関は、既存のスーパーコンピュータを「順番待ち」で利用するしかなく、それが開発スピードのボトルネックになっていました。それらの支援ができている実感があります。

狙っていたユーザーに届いているということでしょうか?

奥原

そうですね。開発当初から、最初のターゲットユーザーは企業や研究機関だと考えていたので、おおむね想定通りです。今後はさらに広い業界での利用が進むと見込んでいます。過去、インターネットが研究分野から商業分野へ広がったときのように、生成AIもすぐに、あらゆるビジネスで利用される基礎技術になるのではないでしょうか。

芦野

機械学習、生成AIは、技術トレンドの流行り廃りを超えた、定着する技術になると思います。基盤を使う側としての意識を持つ必要があると考えていたので、現在の利用状況には手ごたえがあります。

コンテナー型GPUクラウドサービス 高火力 DOK(ドック)
>>サービスの詳細を見る

初めてづくしの開発作業のなかで、エンジニアとしてのスキルアップを実感

国内の民間企業が開発するものとしては、前例の少ないサービスだと思います。開発にあたって印象に残っていることや苦労した点などはありましたか?

奥原

初めての試みが多く、新しい技術のキャッチアップから苦労しました。私は組み込みソフトウェアエンジニアとしてのキャリアが長かったため、大規模なバックエンド開発、しかも生成AIの計算基盤の構築は難しかったです。とくにスケーラビリティや外部接続機能の設計は、組み込みにはない概念だったので大変でした。

芦野

私が印象に残っているのは、NVIDIAの最新GPU「H100」の導入作業です。H100の導入は社内でも初の試みで、従来のGPUと違って十分なノウハウもありません。解決策が見つからない課題も多く、試行錯誤の連続でした。そんななかでも、ユーザー目線に立った使いやすいサービスにすることにはこだわりました。

また、開発の初期はプロジェクトメンバーも少なく、物理GPUサーバーからコンテナオーケストレーターまで幅広いレイヤーを構成管理する必要がありました。エンジニアとしてはよい経験が積めたと思います。今後も機能の拡充にともなってメンバーを募集したり、新しい技術を習得したりしていく予定です。

ユーザーの視点に立った「使いやすさ」へのこだわり

高火力 DOKの強みや、とくにおすすめしたい機能・性能についてお聞かせください。

奥原

「外部接続機能」です。この機能により、ブラウザ経由で実行中のコンテナに接続できるようになりました。たとえば、Jupiter Notebookのような対話側のアプリケーションも高火力 DOKで利用できるので、ソフトウェア開発や画像生成、機械学習のモデル開発や大規模データ分析などの作業を柔軟に進められます。とくに、Pythonを利用した機械学習やデータ解析をしたい人にとって便利な環境になったと思います。

芦野

私は自分自身が高火力 DOKのユーザーでもあり、社内のエンジニア向けに開放されたGPUリソースを活用してオープンソースの大規模言語モデル(LLM)を実際に動かしてみたり、独自の検証環境を構築してパフォーマンスを測定したりといった施策を試しています。

そのうえでとくに推したいのが、H100の性能と、それを支えるインフラ基盤の柔軟性です。H100には、従来のGPUとは比べものにならないほどの計算能力があります。導入の苦労はありましたが、これによって生成AIやディープラーニングなどの大規模なデータ処理がより高速かつ効率的にできるようになりました。

最新の自社サービスをご自身で使うのは、やりがいが大きそうですね。

芦野

内部的にフィードバックを回すことで改善サイクルの速度を上げられる、というメリットもありますし、自分自身がサービス開発に活かせるアイデアやスキルを獲得できる機会にもなります。とくに仮想化、ハイパーバイザのレイヤーの知識は深めていきたいところなので、開発者でもあり、ユーザーでもあれる現在の環境にはやりがいを感じています。

「国内で一番使いやすいGPUサービス」を目指す

今後の展望についてお聞かせください。

奥原

この分野は規模こそ海外のメガクラウドが先行していますが、国内サービスならではのきめ細やかなサポートやセキュリティ対応、法的対応など、地の利を生かした強みはあると考えています。より多様なニーズに応えられるサービスにしていきたいです。

個人的なビジョンとしては、バックエンドエンジニアとしてのスキルアップにも引き続き挑戦していきたいと考えています。生成AIのような急成長分野では、技術の変化も速いため、つねに学び続けなければなりません。

芦野

「国内で一番使いやすいGPUサービス」の実現を目指しています。ユーザーからのフィードバックをすぐにサービス改善に反映できるのは、国内サービスならではの強みです。まだまだ機能を拡充していく予定なので、早い段階からご利用いただくほど使いやすいサービスに育てていけるかと思います。ぜひ試しに使ってみて、先行者利益を得ていただきたいです。

個人的な思いとしては、国内のインフラ技術を発展させ、日本のエンジニアが自由かつ迅速に計算リソースへアクセスできる環境を整えることが、国としての技術力向上や競争力強化につながると考えています。経済安全保障の観点からも、国内に独自の技術基盤を持ち、海外ベンダーへの依存を抑制することは非常に重要です。日本のエンジニアリングを守るためにも、計算リソースはインフラの一部として、国内に技術を持っておくべきだと考えています。

期間限定でお得なキャンペーンを実施中!
>>コンテナー型GPUクラウドサービス 高火力 DOK(ドック)の詳細を見る

>>さくらインターネットのエンジニア採用情報を見る

(撮影:ナカムラヨシノーブ ※芦野のスナップ写真のみ)

執筆

StudioKOKS

「ただしく、よみやすく、わかりやすく」文・理をつなぐテクニカルライター 。 高専出身、開発者を経てフリーライターとして独立し、メディア編集記者などを兼業しつつ技術系取材を中心に活動中。

※『さくマガ』に掲載の記事内容・情報は執筆時点のものです。

すべての記事を見る

関連記事

この記事を読んだ人におすすめ

おすすめのタグ

特集