ピクセルカンパニーズ株式会社は、同社が提供するコンテナ型データセンターサービスにおいて、NVIDIAの最新GPUであるH200およびB200に対応した構成の提供を開始した。これにより、従来対応していたH100に加え、合計3種類のGPUから用途に応じた選択が可能となり、同サービスの柔軟性が一層向上した。
AIおよび生成AIの開発が加速する中で、GPUに求められるのは単なる高性能だけではなく、ワークロードに最適化された構成の選定である。ピクセルカンパニーズは、H100、H200、B200というNVIDIAの主要GPU3モデルすべてに対応することで、研究から商用利用に至るまで幅広いニーズに応えるGPUインフラの提供を実現した。
H100搭載モデルは、基盤モデルのトレーニングや大規模言語モデル(LLM)の開発など、高度な研究用途に適しており、高速なHBM3メモリを搭載することで、前世代比で最大9倍の性能を発揮する。H200搭載モデルは、世界初となるHBM3eメモリの採用により最大141GBの大容量メモリと圧倒的な帯域を誇り、高速な学習と強力な推論処理を両立する構成で、生成AIやチャットボット、マルチモーダルAIなどの領域に推奨される。一方、B200搭載モデルは、第2世代Transformer Engineを採用し、電力効率に優れた設計となっており、推論処理や軽量な生成AIモデルの高速運用を求めるスタートアップ企業やSaaS事業者に最適な選択肢である。
これらのGPUラインナップを用途に応じて選べることで、ユーザーは無駄なリソースを省きつつ、最大限のGPU性能を引き出すことが可能となる。これにより、GPUの調達コストや開発投資を最適化したい企業や研究機関にとって、大きな利点となる。
さらに、同社が展開するコンテナ型GPUソリューションは、その機動性と柔軟性が特徴である。迅速な導入とコストを抑えた運用が可能であり、クラウドとの併用はもちろん、オンプレミスに近い形での運用も実現できる。今後さらに高度化する生成AI時代に対応したGPUインフラを必要とする事業者や研究者にとって、ピクセルカンパニーズのサービスは極めて有効な選択肢となるだろう。