その他 – とれまがニュース

経済や政治がわかる新聞社や通信社の時事ニュースなど配信

とれまが – 個人ブログがポータルサイトに!みんなでつくるポータルサイト。経済や政治がわかる新聞社や通信社の時事ニュースなど配信
RSS
製品 サービス 企業動向 業績報告 調査・報告 技術・開発 告知・募集 人事 その他
とれまが >  ニュース  > リリースニュース  > その他

NVIDIA、Rubin で次世代 AI を始動 - 6 つの新チップと驚異的な AI スーパーコンピューター

NVIDIA

NVIDIA、Rubin で次世代 AI を始動 - 6 つの新チップ


[画像: https://prcdn.freetls.fastly.net/release_image/12662/581/12662-581-a30b994647c57300ba8978418f60c92e-1600x900.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


ニュース概要:
- Rubin プラットフォームは、ハードウェアとソフトウェアにわたる緊密な協調設計により、NVIDIA Blackwell プラットフォームと比較して、推論トークンを 最大10 分の 1 のコストで提供し、MoE モデルのトレーニングに必要な GPU 数を 4 分の 1 に削減します。- NVIDIA Spectrum-X Ethernet Photonics スイッチ システムは、電力効率と稼働時間を 5 倍向上- NVIDIA BlueField-4 ストレージ プロセッサを搭載した新しい NVIDIA Inference Context Memory Storage プラットフォームが、エージェント型 AI リーズニングを高速化- NVIDIA Vera Rubin NVL72 ラックスケール システムを搭載した Microsoft の次世代 Fairwater AI スーパーファクトリーは、数十万の NVIDIA Vera Rubin Superchip まで拡張予定- CoreWeave は NVIDIA Rubin の提供を最初に開始する企業の一社であり、CoreWeave Mission Control を介することで、柔軟性とパフォーマンスを実現- Red Hat との協業を拡大し、Red Hat Enterprise Linux、Red Hat OpenShift、Red Hat AI を備えた Rubin プラットフォーム向けに最適化された完全な AI スタックを提供

ラスベガス - CES - 2026 年 1 月 5 日 - NVIDIA は本日、次世代 AI の幕開けとなる、NVIDIA Rubin プラットフォームを発表しました。これは驚異的な AI スーパーコンピューターを実現するために設計された 6 つの新しいチップで構成されます。NVIDIA Rubin は、世界最大規模かつ最先端の AI システムを最小限のコストで構築、展開、セキュリティ保護するための新たな基準を確立し、メインストリームの AI 導入を加速します。

Rubin プラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink(TM) 6 スイッチNVIDIA ConnectX(R)-9 SuperNICNVIDIA BlueField(R)-4 DPUNVIDIA Spectrum(TM)-6 イーサネット スイッチの 6 つのチップ全体で緊密な協調設計を採用し、トレーニング時間を大幅に短縮し、推論トークンのコストを大幅に削減します。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「トレーニングと推論の両方における AI コンピューティングの需要が急増している中、Rubin はまさに絶好なタイミングで登場しました。新世代の AI スーパーコンピューターを年次サイクルで提供し、6 つの新しいチップにわたる緊密な協調設計により、Rubin は AI の次のフロンティアに向けて大きな飛躍を遂げます」

人類の宇宙に対する理解を自身の発見により一変させた米国の先駆的な天文学者、Vera Florence Cooper Rubin にちなんで名付けられた Rubin プラットフォームは、NVIDIA Vera Rubin NVL72 ラックスケール ソリューションと NVIDIA HGX Rubin NVL8 システムを特徴としています。

Rubin プラットフォームは、最新世代の NVIDIA NVLink インターコネクト テクノロジ、Transformer Engine、Confidential Computing、RAS Engine に加えて、NVIDIA Vera CPU を含む 5 つの革新的技術を導入しています。これらのブレークスルーにより、エージェント型 AI、高度なリーズニング、大規模な Mixture of Experts (MoE) モデルの推論を、NVIDIA Blackwell プラットフォームのトークンあたりのコストを最大 10 分の 1 で高速化します。NVIDIA Rubin プラットフォームでは、従来比で 4 分の 1 の GPU 数で MoE モデルをトレーニングし、AI 導入を加速します。

幅広いエコシステム サポート
Rubin の採用が予定されている世界の主要な AI 研究所、クラウド サービス プロバイダー、コンピューター メーカー、スタートアップには、Amazon Web Services (AWS)、Anthropic、Black Forest Labs、Cisco、Cohere、CoreWeave、Cursor、Dell Technologies、Google、Harvey、HPE、Lambda、Lenovo、Meta、Microsoft、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure (OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab、xAI などが含まれます。


インテリジェンスの拡張を実現する設計
エージェント型 AI やリーズニング モデル、最先端のビデオ生成ワークロードが、計算の限界を再定義しています。多段階の問題解決には、長いトークン列を処理、リーズニング、実行するためのモデルが必要です。複雑な AI ワークロードの要求に応えるように設計された Rubin プラットフォームの画期的な 5 つのテクノロジは、以下の通りです。
- 第 6 世代 NVIDIA NVLink: 現代の大規模な MoE モデルに必要な、高速かつシームレスな GPU 間通信を実現します。各 GPU は 3.6TB/s の帯域幅を提供し、Vera Rubin NVL72 ラックは 260TB/s の帯域幅を提供します。これはインターネット全体の帯域幅を上回ります。NVIDIA NVLink 6 スイッチは、コレクティブ オペレーションを高速化する In-Network Computing に加えて、保守性とレジリエンスを向上させる新機能を搭載し、大規模な AI トレーニングと推論をより迅速かつ効率的に実現します。- NVIDIA Vera CPU: エージェント型リーズニング向けに設計された NVIDIA Vera は、大規模 AI ファクトリー向けで最も電力効率に優れた CPU です。NVIDIA CPU は、88 個の NVIDIA カスタム Olympus コア、Armv9.2 との完全な互換性、超高速 NVLink-C2C 接続で構築されています。Vera は、卓越したパフォーマンス、帯域幅、業界をリードする効率性を提供し、今日のあらゆるデータセンター ワークロードをサポートします。- NVIDIA Rubin GPU: ハードウェア アクセラレーション対応のアダプティブ圧縮機能を備えた第 3 世代 Transformer Engine を搭載した Rubin GPU は、AI 推論向けに 50 ペタフロップスの NVFP4 コンピューティングを提供します。- 第 3 世代 NVIDIA Confidential Computing: Vera Rubin NVL72 は、NVIDIA Confidential Computing を提供する初のラックスケール プラットフォームです。CPU、GPU、NVLink ドメイン全体でデータ セキュリティを維持し、世界最大規模の独自モデル、トレーニング、推論ワークロードを保護します。- 第 2 世代 RAS エンジン: Rubin プラットフォームは、GPU、CPU、NVLink を網羅し、リアルタイムの健全性チェック、耐障害性、予防保守機能を備え、システムの生産性を最大化します。ラックのモジュール式、ケーブル不要のトレイ設計により、Blackwell と比較して最大 18 倍の速度で組み立てと保守作業が可能になります。

AI ネイティブ ストレージと安全なソフトウェア デファインド インフラ
NVIDIA Rubin は、推論コンテキストをギガスケールで拡張するために設計された新世代の AI ネイティブ ストレージ インフラである、NVIDIA Inference Context Memory Storage Platform を導入します。

NVIDIA BlueField-4 を搭載したこのプラットフォームでは、AI インフラ全体で KV キャッシュ データを効率的に共有および再利用できます。これにより、応答性とスループットが向上し、エージェント型 AI の予測可能で電力効率に優れたスケーリングが可能になります。

AI ファクトリーがベアメタルおよびマルチテナントの展開モデルをますます採用するようになるにつれ、インフラの強力な制御と分離を維持することが不可欠となります。

BlueField-4 ではまた、Advanced Secure Trusted Resource Architecture (ASTRA) を導入しています。これはシステムレベルのトラスト アーキテクチャであり、AI インフラ構築者に単一の信頼できる制御ポイントを提供し、パフォーマンスを犠牲にすることなく大規模 AI 環境を安全にプロビジョニング、分離、運用することを可能にします。

ワークロードに応じた多様な形態
NVIDIA Vera Rubin NVL72 は、72 基の NVIDIA Rubin GPU、36 基の NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNICNVIDIA BlueField-4 DPU を組み合わせた統合された安全なシステムを提供します。

NVIDIA はまた、x86 ベースの生成 AI プラットフォームをサポートするため、8 基の Rubin GPU を NVLink を介して接続するサーバー ボードである NVIDIA HGX Rubin NVL8 プラットフォームも提供します。HGX Rubin NVL8 プラットフォームは、AI およびハイパフォーマンス コンピューティング ワークロード向けのトレーニング、推論、科学計算を加速します。

NVIDIA DGX SuperPOD(TM) は、Rubin ベースのシステムを大規模に展開するためのリファレンスとして機能し、NVIDIA DGX Vera Rubin NVL72 または DGX Rubin NVL8 システムと、NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand ネットワーキング、NVIDIA Mission Control(TM) ソフトウェアを統合します。

次世代イーサネット ネットワーキング
高度なイーサネット ネットワーキングとストレージは、データセンターをフル スピードで稼働させ、パフォーマンスと効率を向上させ、コストを削減する上で不可欠な AI インフラの構成要素です。

NVIDIA Spectrum-6 イーサネットは、AI ネットワーキング向けの次世代イーサネットであり、Rubin ベースの AI ファクトリーをより高い効率とレジリエンスで拡張するために構築されています。これは、200G SerDes 通信回路、Co-Packaged Optics、AI 最適化ファブリックによって実現されています。

Spectrum-6 アーキテクチャを基盤に構築された Spectrum-X Ethernet Photonics Co-Packaged Optics スイッチ システムは、AI アプリケーション向けに、従来の方法と比較して 信頼性を 10 倍向上し、稼働時間を 5 倍に向上させます。同時に、5 倍の電力効率を実現し、ワットあたりの性能を最大化します。Spectrum-X イーサネット プラットフォームの一部である Spectrum-XGS Ethernet テクノロジにより、数百キロメートル以上離れた施設を単一の AI 環境として機能させることができます。

これらの革新的技術が一体となり、次世代 NVIDIA Spectrum-X Ethernet プラットフォームを定義します。Rubin 向けに緊密な協調設計で構築された本プラットフォームは、大規模な AI ファクトリーを実現し、将来の 100 万 GPU 環境への道を開きます。

Rubin 対応状況
NVIDIA Rubin は量産段階にはいっており、Rubinベースの製品は 2026 年後半にパートナーから提供開始予定です。

2026 年に Vera Rubin ベースのインスタンスを最初に展開するクラウド プロバイダーには、AWS、Google Cloud、Microsoft、OCI のほか、NVIDIA クラウド パートナー の CoreWeave、Lambda、Nebius、Nscale が含まれます。

Microsoft は、将来の Fairwater AI スーパーファクトリーを含む次世代 AI データセンターの一環として、NVIDIA Vera Rubin NVL72 ラックスケール システムを展開する予定です。

トレーニングおよび推論ワークロードに前例のない効率とパフォーマンスを実現するように設計された Rubin プラットフォームは、Microsoft の次世代クラウド AI 機能の基盤を提供します。Microsoft Azure は、企業向け、研究機関向け、消費者向けアプリケーションにおいて顧客のイノベーションを加速させる、高度に最適化されたプラットフォームを提供します。

CoreWeave は、2026 年後半から、NVIDIA Rubin ベースのシステムを AI クラウド プラットフォームに統合する予定です。CoreWeave は複数のアーキテクチャが並行して動作するように設計されており、顧客は Rubin を自社の環境に導入することでトレーニング、推論、エージェント型ワークロード全体で最大の効果を発揮できるようになります。

CoreWeave は NVIDIA と共に、AI の先駆者が Rubin のリーズニングおよび MoE モデルにおける進歩を活用できるよう支援すると同時に、CoreWeave Mission Control を通じてライフサイクル全体にわたる本番環境 AI に必要な性能、運用信頼性、拡張性を提供し続けます。

さらに、Cisco、DellHPELenovoSupermicro から、Rubin 製品をベースにした幅広いサーバーが提供される予定です。

Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab、xAI などの AI 研究所では、より大規模で有能なモデルをトレーニングし、従来の GPU 世代よりも低遅延、低コストで長コンテキストのマルチモーダル システムを提供するために、NVIDIA Rubin プラットフォームに期待を寄せています。

インフラ ソフトウェアおよびストレージ パートナーである AIC、Canonical、Cloudian、DDN、Dell、HPE、Hitachi Vantara、IBM、NetApp、Nutanix、Pure Storage、Supermicro、SUSE、VAST Data、WEKA は、NVIDIA と協力し、Rubin インフラ向けの次世代プラットフォームを設計しています。

Rubin プラットフォームは、NVIDIA の第 3 世代ラックスケール アーキテクチャであり、80 社以上の NVIDIA MGX(TM) エコシステム パートナーが参加しています。

この高密度化を実現するため、Red Hat は本日、NVIDIA との協業を拡大し、NVIDIA Rubin プラットフォーム向けに最適化された完全な AI スタックを、Red Hat Enterprise Linux、Red Hat OpenShift、Red Hat AI などの Red Hat ハイブリッド クラウド ポートフォリオとともに提供することを発表しました。これらのソリューションは、Fortune Global 500 企業の大多数で採用されています。

本発表に関して、各社よりコメントをいただいております。詳細は添付をご覧ください。

詳細は、CES における NVIDIA LIVE を視聴するか、技術ブログ「Inside Vera Rubin」をご覧ください。

※本発表資料は米国時間 2026 年 1 月 5 日に発表されたプレスリリースの抄訳です。

NVIDIAについて
NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。

プレスリリース提供:PR TIMES

記事提供:PRTimes

記事引用:アメーバ?  ブックマーク: Google Bookmarks  Yahoo!ブックマークに登録  livedoor clip  Hatena ブックマーク  Buzzurl ブックマーク

ニュース画像

一覧

関連ニュース

とれまがマネー

とれまがマネー

IR動画

一覧

とれまがニュースは、時事通信社、カブ知恵、Digital PR Platform、BUSINESS WIRE、エコノミックニュース、News2u、@Press、ABNNewswire、済龍、DreamNews、NEWS ON、PR TIMES、LEAFHIDEから情報提供を受けています。当サイトに掲載されている情報は必ずしも完全なものではなく、正確性・安全性を保証するものではありません。当社は、当サイトにて配信される情報を用いて行う判断の一切について責任を負うものではありません。

とれまがニュースは以下の配信元にご支援頂いております。

時事通信社 IR Times カブ知恵 Digital PR Platform Business Wire エコノミックニュース News2u

@Press ABN Newswire 済龍 DreamNews NEWS ON PR TIMES LEAF HIDE

Copyright (C) 2006-2026 sitescope co.,ltd. All Rights Reserved.