このページの本文へ

前へ 1 2 3 4 次へ

COMPUTEX TAIPEI 2025レポート 第16回

中国への輸出規制は効果がないとNVIDIA CEOが持論を展開、ヒューマノイドロボットが次の数兆ドル産業になる

2025年05月21日 20時00分更新

文● 中山 智 編集●北村/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 NVIDIAは台湾・台北で開催中のCOMPUTEX 2025に関連して、ジェンスン・ファンCEOによるプレス向けQ&Aセッションを5月21日開催した。セッションでは各国のメディアから、最新技術の発表に加え、AI時代のインフラ構築、地政学的課題、市場戦略、そして将来の技術展望について質問があった。

8枚のGPUをNVLink Switchで接続し1つのGPUにする
AIシステム「RTX Pro Enterprise AI server」

 セッション冒頭、ファン氏は新しいサーバーのマザーボードを紹介。これは多数のGPUを搭載し、NVLink Switchで相互接続することで「8枚のGPUが1つのGPUになる」システムであると説明。さらに、CX8ネットワーキングにより他のコンピューターとも接続される。このシステムは空冷式で導入が容易であり、世界の主要なエンタープライズIT OEMから提供される予定だという。

 x86ベースであり、既存のエンタープライズITソフトウェアやOS(Red Hat, VMware, Nutanixなど)がそのまま動作するため、ファン氏は「コンピューターグラフィックス、AI、エージェントなど、あらゆる用途に利用できる」と説明。これを「RTX Pro Enterprise AI server」と称した。これは「非常に大きな発表」であり、AI市場がクラウド中心から企業内へと拡大することを示唆。これはNVIDIAの新たなエンタープライズAIシステムと話している。

RTXはAIに等しい

 最初の質問者は、エンタープライズ市場の重要性とAIPCの話題に触れ、メディアとの協力の可能性について尋ねた。ファン氏は、前夜にマイクロソフトがWindows MLをNVIDIA上で動作させると発表したことに言及。NVIDIAのRTXにはCUDAとTensor Coreがあり、「数億台のRTX PCが世界にある。RTXはAIに等しい」とし、Windows MLがRTX上で動作することで「何億ものPCユーザー、ワークステーションユーザー、ラップトップ、デスクトップ、皆が恩恵を受ける」と述べた。

 開発者向けには、クラウドに頼らずローカルでAI開発ができ、「パーソナルAIスーパーコンピューター」として位置づけられる「DGX Spark」と「DGX Station」を提供する。ネットワークで接続し、クラウドとまったく同じソフトウェアで利用可能。Mac、Chromebook、Linux、Windows、いずれのOSでも問題ないとした。これは「AIネイティブのためのパーソナルコンピューター」であり、より大きな「AIワークステーション」としてもアクセス可能だとし、「完璧な開発者向けのコンパニオン」だと強調した。

 続いて、過去5〜10年で開発を中止した製品やパイプラインについて質問が出た。ファン氏は、プロジェクトを完全に中止することは「非常に稀」で、方向性を「何度も形作る、再形成する」ことが多いと答えた。その理由として「方向性が正しくなければならない」ことを挙げ、例としてOmniverseの初期開発を挙げた。

 初期のOmniverseのビジョンは正しかったが、ソフトウェアのアーキテクチャが「エンタープライズやワークステーションの古いやり方に基づいており、スケーラブルでなかった」という。

 最初は「複数のGPUを持つ単一インスタンスソフトウェア」として構築したが、それは「間違った答え」だった。Omniverseは「分散システムとして、複数のシステム、複数のOS、それぞれ複数のGPUを持つ複数のコンピューター上で実行されるべきだった」とし、これが今回のRTX Proのようなマシンを構築した理由だと述べた。

 「RTX Pro」と呼ばれるのは「Omniverseの生成AIシステム」であるためだと説明。これは8つのGPUを持つ1つのコンピューターであり、さらに多くのコンピューターと接続できる。「Omniverseはこの全体で実行される。これは完璧なOmniverseコンピューター、完璧なロボティクスコンピューター、完璧なデジタルツインコンピューターだ」と語った。Omniverseは7年前に開発を開始し、ようやく「すべてをつなげる」段階に来たと述べ、開発過程での方向転換や間違いを経て調整を続けていることを明かした。

 次にDGX Sparkについて尋ねられたファン氏は、生産性の高いAI開発環境が必要であり、AIモデルは非常に大きいため、PythonソフトウェアとAIスタックで完全にアクセラレートされる環境を求めていると述べた。多くのコンピューターはAI開発に完璧ではなく、メモリーが不足しているか、古いバージョンだと指摘。

 NVIDIAは「最先端のAIシステム」を「リモートWi-Fi環境」に置いて、すべてのコンピューターと接続できるようにしたとファン氏は説明。DGX Sparkの登場により、世界の3000万人以上のソフトウェア開発者に加え、同数のAI開発者が生まれると予測し、誰もが「本質的にAIスーパーコンピューターやAIクラウドを持つ」恩恵を受けられるようにしたとのこと。

 NVLink Fusion戦略について問われたファン氏は、NVLink Fusionが「あらゆるデータセンターに、我々がNVLinkと呼ぶこの信じられない発明を活用させる」と説明。NVLinkは12年間開発しており、NVLinkとSpectrum X、Quantumネットワーキングは「高度に統合され最適化されている」ため、AIデータセンター、すなわち「AI工場」の性能が非常に良いのだという。

 100億ドルの工場で効率が90%と60%では、30%の差が30億ドルになるため、ネットワーク効率、性能、効率、エネルギーは非常に重要だと強調した。多くの顧客がセミカスタムインフラを開発しており、彼らからNVLinkを使いたいという要望があったと明かした。

 UALinkという業界の議論もあるが「あまりうまくいっていないと思う」とし、顧客がNVLinkのオープン化を求めてきたため「喜んで」オープン化に応じたと述べた。

 NVLinkをオープンにする利点として、NVIDIAのネットワーク、すなわち「ファブリック」がデータセンターの「オペレーティングシステム」「神経系」であることを挙げた。これにより、NVIDIAの神経系を、NVIDIA技術であろうと顧客のセミカスタム技術であろうと、あらゆるデータセンターに拡張できる。これはNVIDIAの市場機会を拡大する点で「非常に良い」ことだと語った。

 また、MediaTek、Alchip、MarvellのようなASIC企業にとっても良いとした。顧客にとっては、NVLinkのアーキテクチャーがラックシステムと統合されていることが最も重要であり、GB200を使っている顧客はすでにNVIDIAのラックを使っているため、セミカスタムであってもNVIDIAのラックを使い続けることができる。NVLink、ネットワーキングアーキテクチャーは1つであり、CPUはNVIDIA、Fujitsu、Qualcommなどさまざまでも良いと述べた。

前へ 1 2 3 4 次へ

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

  • 角川アスキー総合研究所

プレミアム実機レビュー

ピックアップ

デジタル用語辞典

ASCII.jpメール デジタルMac/iPodマガジン

OSZAR »