HPCシステムズ、NVIDIA最新Blackwell搭載GPUサーバーとソフトウェアパッケージでローカルLLM導入を加速するターンキーソリューションを提供開始
HPCシステムズ株式会社

最大級モデルも動作、研究開発を強力にサポート
HPCシステムズ株式会社(本社:東京都港区、代表取締役 小野 鉄平、以下 HPCシステムズ)は、NVIDIA HGX B200(最新Blackwell GPUアーキテクチャ)を8基搭載したハイエンドGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を中核とする、ローカルLLM(大規模言語モデル)環境の導入・運用をワンストップで実現するソリューションの提供を開始しました。
背景:高まるローカルLLM需要、大規模・高性能モデル、そしてセキュリティへの意識
ChatGPTの登場以来、企業や研究機関において、大規模言語モデル(LLM)を自社環境(ローカル)で運用する「ローカルLLM」の需要が急増しています。
ローカルLLMは、ローカル環境で動作するため、クラウド利用に伴う従量課金が発生しません。さらに、クラウド型のチャットAIで懸念されている情報漏洩やプライバシー上の問題もなく、企業や研究機関が機密性の高い情報を扱う場合に最適です。
特に近年、より高度なタスクに対応できる、パラメータ数が数百億~数千億規模の「高性能LLM」へのニーズが高まっています。これらの高性能LLMは、より自然な文章生成、高度な質問応答、複雑な推論などが可能であり、研究開発、コンテンツ生成、顧客対応など、幅広い分野での活用が期待されています。しかし、このような高性能LLMを動作させるには、大容量のGPUメモリを搭載した特殊なコンピュータが必要となり、導入・運用のハードルが高いという課題がありました。
[画像1:
https://prcdn.freetls.fastly.net/release_image/38530/14/38530-14-42e59e6e953bb673f919a4415b072ce2-1024x500.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
クラウドLLMとローカルLLMの比較
本ソリューションの概要
1. 最新鋭のハードウェア:
o NVIDIAの最新Blackwellアーキテクチャに基づくHGX B200 GPUを8基搭載したGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を提供。
o 180GBのGPUメモリ×8基からなる合計1.4TB超の大容量メモリにより、現在最大級のLLMも動作可能。
- 例:Metaが開発したLlama 3の最大モデル(405Bパラメータ)の推論に必要なメモリは約810GBとされていますが、本製品はそれを大幅に上回る1.4TB超のメモリを搭載しており、余裕をもって対応可能。
- より大規模なモデルや、複数のモデルを同時に動かすことも可能であり、将来的なLLMの進化にも対応可能。
o サーバー本体だけでなく、電源ユニット(PDU)やラックもセットで提供。
2. ソフトウェアも完備:
o 主要なLLM関連ソフトウェア(Dify、OpenWebUI、Ollama、Xinferenceなど)をインストール済み。
o オプションで、AI開発を加速する「NVIDIA AI Enterprise(有償)」のセットアップにも対応。
3. 複数チームでの利用も簡単:
o 複数チームでのリソース共有やジョブ管理を効率化する「Slurm Workload Manager」の構築・運用をサポート。
4. 安心のサポート体制:
o 導入時の環境構築(ネットワーク設定、ストレージ設定など)から運用後の保守・技術サポートまで、HPCシステムズがトータルでサポート。
o システム構成のコンサルティングや現地調査も実施。
o HPCシステムズは、NVIDIAのパートナー認定制度「NPN」で最上位の「ELITE PARTNER」認定を取得しており、NVIDIA製品を熟知した専門家がサポート。
前世代からの進化:圧倒的な性能向上
今回発表の製品は、前世代のHGX H200と比較して、以下の点で飛躍的な性能向上を達成しています。
- GPU性能: 2倍以上 (FP8精度で72PFLOPS)- メモリ容量: 約1.3倍 (1.44TBのHBM3eメモリ)- メモリ帯域幅: 約1.7倍 (8TB/s)- NV Switch GPU間帯域: 2倍(1.8TB/s)
本ソリューションのメリット
導入期間の短縮:環境構築の手間を省き、研究者はすぐに研究を開始可能。
専門知識不要:複雑なシステム構築・運用はシステムズが代行。
コスト削減:外部委託に比べ、導入・運用コストを抑制。
安定稼働:専門家によるサポートで、システムを安定運用。
最新技術の活用:の最新で、最先端の研究開発を支援。
高性能LLMに対応:最大級のを動作させ、より高度な研究開発を実現。
セキュリティ強化:情報漏洩リスクを排除し、機密情報を安全に保護。
今後の展開
HPCシステム株式会社は、本ソリューションを皮切りに、LLM分野の研究開発を支援する様々な製品・サービスを提供していく予定です。
ハードウェア構成例(抜粋)
[表:
https://prtimes.jp/data/corp/38530/table/14_1_06fd80bfeeb46ed99bf45aabdce311ff.jpg ]
[画像2:
https://prcdn.freetls.fastly.net/release_image/38530/14/38530-14-ad1f495735af23e06fae377f5c12a3ba-675x256.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
製品ページ:
https://www.hpc.co.jp/product/hardware/hpc5000-xgragpu8r10s-nvl/
【HPC システムズについて】
HPC システムズは、ハイパフォーマンスコンピューティング(HPC)分野のニッチトップ企業です。
HPC 事業では、科学技術計算用高性能コンピュータとシミュレーションソフトウェア販売、科学技術計算やディープラーニング(深層学習)環境を構築するシステムインテグレーションサービス、シミュレーションソフトウェアプログラムの並列化・高速化サービス、計算化学ソフトウェア、マテリアルズ・インフォマティクスのプログラム開発・販売、受託計算サービス・科学技術研究開発支援、創薬研究開発や素材・材料研究開発分野向けサイエンスクラウドサービスをワンストップで提供しています。また、CTO事業では、顧客の用途、課題をヒアリングしながら、価格・性能・品質・高低温・防塵・防水・静電対策・過酷な環境に対する高耐久性など多種多様の対応が求められる、工場生産設備・製造装置・検査装置、制御機器や交通インフラ、自動運転、リテール店舗などのコントローラーとしての産業用コンピュータやエッジコンピュータの仕様提案から開発、生産、保守サポート、長期安定供給を実現しています。
社名 HPCシステムズ株式会社
所在地 東京都港区海岸 3 丁目 9 番 15 号 LOOP-X 8 階
設立 2006 年 7 月 3 日
資本金 2 億 3,024万円 (2024 年 12 月 31 日時点)
代表者 代表取締役 小野 鉄平
プレスリリースに関するお問い合わせ
https://www.hpc.co.jp/contact/company_form/プレスリリース提供:PR TIMES

記事提供:PRTimes