次世代AIに向けた新たなインフラ
NVIDIAは、2026年1月5日に、フルスタックNVIDIA BlueFieldプラットフォームの一部であるNVIDIA BlueField-4データプロセッサが、次世代AI向けの新たなAIネイティブストレージインフラであるNVIDIA Inference Context Memory Storage Platformに搭載されることを発表しました。

AIモデルは、現在、数兆のパラメータと多段階推論まで拡張されています。これにより、精度、ユーザー体験、継続性にとって重要なキーバリュー(KV)キャッシュと呼ばれる大量のコンテキストデータが生成されます。
このKVキャッシュをGPUに長期保存することは困難であり、リアルタイム推論のボトルネックとなる可能性があります。そのため、AIネイティブアプリケーションには、このデータを保存および共有するための新たなスケーラブルなインフラが必要とされています。
NVIDIA Inference Context Memory Storage Platform
NVIDIA Inference Context Memory Storage Platformは、GPUメモリ容量を拡張し、ノード間での高速共有を可能にします。従来のストレージと比較して、最長で1秒あたり5倍のトークン数を処理でき、電力効率も最大5倍に向上します。

このプラットフォームは、マルチターンAIエージェント向けの永続的なコンテキストを提供し、応答性を向上させ、AIファクトリのスループットを強化します。長コンテキストのマルチエージェント推論のスケーリングも効率的にサポートします。
BlueField-4の主な機能
NVIDIA RubinクラスターレベルのKVキャッシュ容量により、ロングコンテキスト、マルチターンのエージェント型推論に必要なスケールと効率を実現します。
- 従来のストレージと比較して最大5倍の電力効率を提供
- NVIDIA DOCAフレームワークを活用し、NIXLライブラリおよびDynamoソフトウェアと連携することで、AIノード間のKVキャッシュのスマートな高速共有を実現
- NVIDIA BlueField-4によるハードウェアアクセラレーションを活用したKVキャッシュ配置により、メタデータのオーバーヘッドを排除し、データ移動を削減
- NVIDIA Spectrum-X Ethernetにより、AIネイティブKVキャッシュへのRDMA(Remote Direct Memory Access)ベースのアクセスをサポートする高性能ネットワークファブリックを提供
また、AIC、Cloudian、DDN、Dell Technologies、HPE、Hitachi Vantara、IBM、Nutanixといったパートナー企業もこのプラットフォームの開発を支援しています。
Ms.ガジェット最後までお読みいただきありがとうございました!
- 本記事の評価は当サイト独自のものです。
- 特段の表示が無い限り、商品の価格や情報などは記事執筆時点での情報です。
- この情報が誤っていても当サイトでは一切の責任を負いかねますのでご了承ください。
- 当サイトに記載された商品・サービス名は各社の商標です。
- 本記事で使用している画像は、メディアユーザーとしてPR TIMESより提供されたプレスリリース素材を利用しています。

