NVIDIA DGX Spark
ローカルでGPT-4クラスを実行
次世代AI開発を、あなたのデスクに
スパコンを手元に、いつでも、どこでも。

NVIDIA DGX Sparkは、AI開発の現場に革新をもたらす、世界初のパーソナルAIスーパーコンピュータです。最大2000億パラメータの大規模モデルをローカル環境で実行できる性能を備え、クラウド依存からの脱却、機密データの安全な取り扱い、そして即時開発環境の構築を可能にします。本ページでは、DGX Sparkの技術的特長、導入メリット、製品ラインナップについて詳しくご紹介します。

製品概要

DGX Sparkは、NVIDIAが新たに設計したGrace Blackwellアーキテクチャを採用した、次世代のAI専用コンピューティングプラットフォームです。AIモデルの構築から推論までをローカル環境で完結できるよう設計されており、従来のワークステーションやクラウド環境では困難だった大規模モデルの処理を、静音・省電力・コンパクトな筐体で実現します。
Grace Blackwellアーキテクチャ搭載

第5世代Tensor Coreを備えたBlackwell GPUと、20コア構成のGrace Arm CPUを統合。
AI演算に特化した設計により、最大1,000 AI TOPSの処理性能を発揮します。

128GBの統合メモリによる大規模モデル対応

CPUとGPUが共有する128GBのLPDDR5xメモリにより、最大2000億パラメータのAIモデルをローカルで実行可能。メモリの共有によってデータコピーが不要となるため、実行速度が向上しています。
従来はクラウドでしか扱えなかった規模のモデルを、デスクトップサイズで運用できます。

UbuntuベースのDGX OSとNVIDIA AIスタックをプリインストール

DGX Sparkには、AI開発に最適化されたDGX OSが搭載されており、PyTorch・TensorFlow・JupyterLabなどの主要ツールが事前構成済み。
起動後すぐに開発を開始できます。

2台接続でさらに拡張可能

ConnectX-7 Smart NICを用いて2台のDGX Sparkを接続することで、最大4050億パラメータのモデルにも対応。
GPT-4クラスの推論や微調整を、クラウドを介さずローカルで実現できます。

製品ラインナップ

DGX Sparkは、NVIDIA純正モデルに加え、ASUSおよびDellによるOEMモデルが提供されており、用途や運用体制に応じて柔軟に選択できます。いずれも基本性能は共通ですが、ストレージ容量や保守形態に違いがあります。

提供元 ストレージ構成 保守形態 特徴・用途例
NVIDIA純正モデル SSD 4TB 引き取り修理 DGX OSを標準搭載。研究室・開発部門での本格運用に最適。
ASUS OEMモデル SSD 1TB 引き取り修理 コンパクト構成。個人研究者や小規模開発チームにおすすめ。
Dell OEMモデル SSD 2TB / 4TB オンサイト保守 保守体制が充実。企業・組織での継続運用に適した選択肢。

選定ポイント

保守体制の違い

Dellモデルはオンサイト保守に対応しており、障害時の迅速な対応が可能。NVIDIA・ASUSモデルは引き取り修理対応のため、運用体制に応じた選定が重要です。

ストレージ容量の違い

大規模モデルの保存や複数プロジェクトの並行運用を想定する場合は、4TBモデルが推奨されます。軽量な推論用途やPoCには1TB構成でも十分対応可能です。

ソフトウェア環境

NVIDIA純正モデルにはDGX OSとNVIDIA AIソフトウェアスタックがプリインストールされており、導入後すぐに開発を開始できます。

お問い合わせ

導入メリット

DGX Sparkは、すでにユニポスを通じてAI関連製品を導入されているお客様にとって、次のステージに最適な選択肢です。これまでの製品では対応が難しかった「大規模モデルのローカル実行」や「クラウド依存からの脱却」を、コンパクトかつ高性能な設計で実現します。

1. クラウド依存からの脱却

従来の大規模モデル運用は、クラウド環境に依存することが一般的でした。しかし、DGX Sparkなら、最大2000億パラメータのモデルをローカルで実行可能。クラウド利用に伴う通信遅延や従量課金の不安から解放され、安定した開発環境を構築できます。

2. 機密データの安全な取り扱い

DGX Sparkは自己暗号化機能付きのNVMe SSDを搭載しており、医療・法務・製造業など機密性の高いデータを扱う現場でも安心して利用できます。データを外部に送信せず、ローカルで完結するAI処理が可能です。

3. 大規模モデルの開発・推論に対応

128GBの統合メモリにより、GPT-4クラスのモデルをローカルで実行可能。さらに、2台接続時には最大4050億パラメータのモデルにも対応できるため、社内GPTや特化型LLMの構築・運用に最適です。

4. マルチユーザーでの共同利用

JupyterHubやSSHによるマルチユーザー接続に対応しており、最大8名までの同時利用が可能。研究チームや開発部門での共同作業にも柔軟に対応します。

5. 導入後すぐに使える環境

DGX OSとNVIDIA AIソフトウェアスタックがプリインストールされているため、初期設定の手間なく、導入直後からAI開発を開始できます。PyTorch、TensorFlow、JupyterLabなど主要ツールが事前構成済みです。

課題・ニーズ

DGX Sparkによる解決

クラウド依存によるコスト・レイテンシ ローカルで推論・微調整が可能
機密データの外部送信リスク 自己暗号化SSDで安全にローカル処理
大規模モデルの開発環境不足 2000億パラメータ対応の統合メモリ搭載
複数ユーザーでの利用 JupyterHubやSSHでマルチユーザー対応

活用シーン

  • 社内GPTの構築・運用(例:社内文書検索、チャットボット)
  • 医療・法務・製造業向けの特化型AI開発
  • Jetson向けモデルの最適化・変換(TensorRT対応)
  • REST APIによる社内システム統合
  • マルチユーザーによる共同研究開発(最大8名同時接続)

関連情報

お問い合わせ