
持続的なAI事業を実現するための
GPUクラウドサービス
分散学習、推論のオンデマンドを世界最安値で提供

持続的なAI事業を実現するための
GPUクラウドサービス
分散学習、推論のオンデマンドを
世界最安値で提供

複雑なインフラ構築作業が不要
すぐに開発環境にアクセス
インスタンスには予め、CUDA、Python、Torch、Jupyter Lab等の、標準的な初期設定が構築されており、面等なインフラ構築作業にかかる工数を大幅に削減します。

世界最安値、オンデマンド高速GPU
分散学習にも対応
NVIDIA H100 をオンデマンドで、1時間あたり$2.90からご利用いただくことが可能です。オンデマンドGPUは分散学習にも対応しています。

高速・低遅延
安心・安定のネットワーク
ネットワークは、100Gbps専用線を用いています。高速・低遅延・安定した通信をご提供します。
AI開発における時間・費用を、大幅に削減します

AI開発における時間・費用を
大幅に削減します

複雑なインフラ構築作業が不要
すぐに開発環境にアクセス
インスタンスには予め、CUDA、Python、Torch、Jupyter Lab等の、標準的な初期設定が構築されており、面等なインフラ構築作業にかかる工数を大幅に削減します。

世界最安値、オンデマンド高速GPU
分散学習にも対応
NVIDIA H100 をオンデマンドで、1時間あたり$2.90からご利用いただくことが可能です。オンデマンドGPUは分散学習にも対応しています。

高速・低遅延
安心・安定のネットワーク
ネットワークは、100Gbps専用線を用いています。高速・低遅延・安定した通信をご提 供します。

サービスのメリット
設定
ソフトウェア構成
ネットワーク構成
サーバ料金
bigbeargpuを利用する場合
分散 学習に必要なソフトウェアは事前にセットアップ済みで、すぐに分散学習を利用可能
各ノードあたり3200Gbpsによるノード間の高速通信をすぐに利用可能
イニシャルコスト: なし
ランニングコスト: 小
契約体系: オンデマンド
(使用時間分だけ課金)
海外クラウドサービスを
利用する場合
自社で環境構築する場合
クラウド業者により、分散学習に必要なソフトウェアがプリインストールされているケースもあれば、されていないケースもある。後者の場合は、ユーザ側でセットアップする必要あり
GPUを搭載したベアメタルサーバおよび各インスタンスに、各種ソフトウェアをインストールする必要がある:
●GPUドライバ
●CUDA Toolkit 他
●ディープラーニングフレームワーク
●分散学習ライブラリなど…
クラウド業者により、高速通信が可能な Infiniband または RoCE、あるいは一般的なCPU経由での通信のいずれかが提供される
ノード間の高速通信を行うために、Infiniband や RoCE を導入し、専用のネットワークスイッチへ接続して環境構築を行う
イニシャルコスト: 中
ランニングコスト: 大
契約体系: リザーブドが主流
ベアメタルでの高額な初期投資
bigbeargpuのAI開発環境には予め標準的な開発環境が設定されており、複雑なインフラ構築作業が不要です。そのため、ユーザーは数ステップの操作ですぐに開発に取りかかることが可能です。また、高速GPUを必要な分だけ使うことができるため、従来よりも低コストでAI開発を行うことができます。GPUは分散学習にも対応しており、オンデマンドで利用いただくことが可能です。
ノード間の通信は3200Gbpsの高速な帯域を確保。分散学習など高い計算負荷にも対応します。外部ネットワークは100Gbpsの専用線を使用。高速で快適な開発環境をご提供します。AIの学習から推論ま で、広い用途でお使いいただくことができます。
AIの開発や推論の環境構築が不要
分散学習にも対応した、オンデマンドGPUクラウドサービス
分散学習に必要な設定とコスト比較
設定
ソフトウェア
構成
ネットワーク
構成
サーバ料金
bigbeargpuを利用する場合
分散学習に必要なソフトウェアは事前にセットアップ済みで、すぐに分散学習を利用可能
各ノードあたり3200Gbpsによるノード間の高速通信をすぐに利用可能
イニシャルコスト: なし
ランニングコスト: 小
契約体系: オンデマンド
(使用時間分だけ課金)
クラウド業者により、分散学習に必要なソフトウェアがプリインストールされているケースもあれば、されていないケースもある。後者の場合は、ユーザ側でセットアップする必要あり
クラウド業者により、高速通信が可能な Infiniband または RoCE、あるいは一般的なCPU経由での通信のいずれかが提供される
イニシャルコスト: 中
ランニングコスト: 大
契約体系: リザーブドが主流
ソフトウェア
構成
ネットワーク
構成
サーバ料金
海外クラウドサービスを
利用する場合
設定
bigbeargpuのAI開発環境には予め標準的な開発環境が設定されており、複雑なインフラ構築作業が不要です。そのため、ユーザーは数ステップの操作ですぐに開発に取りかかることが可能です。また、高速GPUを必要な分だけ使うことができるため、従来よりも低コストでAI開発を行うことができます。GPUは分散学習にも対応しており、オンデマンドで利用いただくことが可能です。
ノード間の通信は3200Gbpsの高速な 帯域を確保。分散学習など高い計算負荷にも対応します。外部ネットワークは100Gbpsの専用線を使用。高速で快適な開発環境をご提供します。AIの学習から推論まで、広い用途でお使いいただくことができます。
AIの開発や推論の環境構築が不要
分散学習にも対応した、オンデマンドGPUクラウドサービス
分散学習に必要な設定とコスト比較
ユーザ登録後、画面に従って、初期設定されているAIモデルや初期環境と使用するGPUの枚数を選択します。直感的に操作が可能な分かりやすい画面構成となっており、わずか数ステップでJupyter Labを立ち上げ、開発作業にとりかかることが可能です。