NVIDIAは、大規模な生成推論およびエージェント型推論向けのオープンソースソフトウェア「NVIDIA Dynamo 1.0」を本番稼働向けに提供開始しました。このソフトウェアは、AIファクトリーの分散型「オペレーティングシステム」として機能し、クラウドプロバイダーやAIイノベーターが高性能なAI推論を効率的にスケールすることを可能にします。
製品概要
Dynamo 1.0は、AIファクトリー内のGPUやメモリリソースをシームレスに調整する基盤です。従来のオペレーティングシステムがコンピューターのハードウェアとアプリケーションを調整するように、Dynamoは複雑なAIワークロードを最大限の効率で駆動します。予測不可能な形で届く多様なリクエストに対応し、リソースオーケストレーションの複雑な課題を解決します。

Ms.ガジェット性能向上効果
NVIDIA Blackwell GPUとDynamo 1.0を組み合わせると、無料のオープンソースソフトウェアによって推論パフォーマンスを最大7倍向上させることができます。これにより、数百万のGPUにおけるトークンコストを削減し、収益機会を増大させます。Dynamoは、より高度な「トラフィック制御」とGPUと低コストのストレージ間のデータ移動機能を追加し、無駄な作業を減らしてメモリ制限を緩和します。エージェント型AIや長いプロンプトの場合、関連する「短期記憶」を備えたGPUにリクエストをルーティングすることで効率化を図ります。

Ms.ガジェット主要フレームワークへの統合
DynamoおよびNVIDIA TensorRT-LLMライブラリの最適化は、LangChain、llm-d、LMCache、SGLang、vLLMなどの主要なオープンソースフレームワークにネイティブに統合されています。これにより、開発者は既存のワークフローを変更せずに推論パフォーマンスを向上させることができます。また、KVBM(よりスマートなメモリ管理)、NVIDIA NIXL(GPU間での高速なデータ転送)、NVIDIA Grove(拡張簡素化)などの構成要素はスタンドアロンモジュールとして利用可能です。さらに、NVIDIAはFlashInferプロジェクトにTensorRT-LLM CUDAカーネルを提供し、オープンソースフレームワークへの統合を加速しています。
Ms.ガジェット採用企業とサポート体制
NVIDIA推論プラットフォームは、クラウドサービスプロバイダー、NVIDIAクラウドパートナー、AIネイティブ企業、推論エンドポイントプロバイダー、グローバル企業など、幅広い企業によって採用および統合されています。主な例を以下に整理します。
| カテゴリ | 採用企業例 |
|---|---|
| クラウドサービスプロバイダー | Amazon Web Services (AWS)、Microsoft Azure、Google Cloud、Oracle Cloud Infrastructure (OCI) |
| NVIDIAクラウドパートナー | Alibaba Cloud、CoreWeave、Together AI、Nebius |
| AIネイティブ企業 | Cursor、Perplexity |
| 推論エンドポイントプロバイダー | Baseten、Deep Infra、Fireworks |
| グローバル企業 | ByteDance、Meituan、PayPal、Pinterestなど |
各企業からは、Dynamoの導入により、拡張性や信頼性の高いAI推論環境を実現できるとのコメントが寄せられています。
Ms.ガジェット提供開始と詳細情報
Dynamo 1.0は本日より世界中の開発者に無料で提供されています。詳細や展開方法については、NVIDIAの公式ブログやウェブページで情報が公開されています。本発表は、GTC 2026において行われました。これにより、AIファクトリーの効率的な運用が可能になり、企業はよりコスト効率の高い推論サービスを提供できるようになります。
Ms.ガジェット最後までお読みいただきありがとうございました!
- 本記事の評価は当サイト独自のものです。
- 特段の表示が無い限り、商品の価格や情報などは記事執筆時点での情報です。
- この情報が誤っていても当サイトでは一切の責任を負いかねますのでご了承ください。
- 当サイトに記載された商品・サービス名は各社の商標です。
- 本記事で使用している画像は、メディアユーザーとしてPR TIMESより提供されたプレスリリース素材を利用しています。

