AIモデル開発向け マシン選定のポイント

高性能GPUや開発環境の充実により、AIモデル開発でのPC需要が増加しています。
テガラでは、お客様ごとの条件にあわせて、最適なマシン構成をご提案いたします。

「学習」と「推論」におけるPC要件の違い

AIモデル開発には、大きく「学習」と「推論」の2つのフェーズがあります。学習はモデル生成、推論は学習済みモデルを実際に利用する過程です。
一般的な機械学習の流れは、「学習」→「推論」の順番で行われます。

「学習」と「推論」

学習は、大量のトレーニングデータからモデルを学習させる過程です。モデルを適応させるためにパラメータを調整していきます。
求められるPCスペック:高性能で大容量なPC(多コアCPU・多コアGPU・大容量メモリ)が必要。
推論

推論は、学習済みモデルに新しい入力データを与えて予測や分類を行う過程です。学習時ほどのスペックは必要とされませんが、推論に特化したチップや専用AIプロセッサも利用可能です。

求められるPCスペック:学習時より小規模なPCでも十分に利用できる。

「AIモデル開発用のPC」は、学習フェーズ用のマシンと言い換えることができ、全体的に高性能なマシンが求められます。
では、AIモデル開発の環境についてもう少し詳しく見ていきましょう。

AIモデル開発でよく使われるソフトウェア環境

AIモデルの開発に使用されるソフトウェアのうち、代表的な物をご紹介します。

Python

AI開発に最も用いられるプログラミング言語です。

TensorFlow / PyTorch

深層学習のフレームワークで、多くのアプリケーション開発で利用されています。

Jupyter Notebook

効率的なAI開発を行うためのノート型IDEで、便利に活用できます。

NVIDIA CUDA Toolkit

NVIDIA社製品によるGPGPUを利用、実装するための開発環境で各種ライブラリやコンパイラなどが提供されます。NVIDIA社製品をGPGPUに利用する基盤となるツール群です。

NVIDIA cuDNN

AI開発で利用されるdeep neural networkを実装するためのライブラリです。CUDA Toolkitと合わせて利用することが前提となります。

AIモデル学習においては、CUDA Toolkitが積極的に利用されています。
CUDAはGPUの能力を最大限に活用し、複雑な数値演算を並列処理できるため、AIモデルの学習時間を大幅に短縮し、効率的なリソース活用を可能とします。また、CUDA Toolkitは多くの深層学習フレームワーク (TensorFlowやPyTorch)と統合されており、これらのフレームワークをGPUで高速に動作させるためのインターフェースを提供します。この統合性と高いパフォーマンスにより、CUDA ToolkitはAIモデル学習でのデファクトスタンダートとなっています。

PythonでのAI開発の基本的なステップ

1 データセットの準備

トレーニングデータやテストデータを収集し、DataFrameなどにロードします。

2 モデルの実装

モデルの実装:TensorFlowやPyTorchを使用して学習モデルを実装します。

3 モデルの学習

モデルの学習:準備したデータセットを使用して、モデルパラメータの学習を行います。

4 モデルの評価

テストデータセットでモデルの性能を評価し、精度などを確認します。

5 モデルの改善

評価結果を元にモデル構造の最適化を行い、性能向上を目指します。

6 モデルの保存・再学習 学習済みモデルを保存し、新しいデータセットで再学習できるようにします。
7 推論の実行

推論用コードを実装・保存し、新規データで推論を実行します。

これらのステップを踏むことで、使った機械学習・Deep Learningモデルの開発が可能です。
プロジェクトに応じてステップの詳細を工夫し、進めていくことが重要です。

AIモデル開発を行うPCに求められるスペック

AIモデルの開発を行うために必要なPCスペックを、具体的に見ていきましょう。
学習させる内容や量などによって差異はありますが、一般的な水準での目安としては以下のようなスペックが考えられます。

CPU

多コアCPUが選択されることが多いです。

GPU 

NVIDIAのGPUを搭載することが一般的で、GPUのコア数・メモリ容量が多いほど処理が高速になります。

メモリ 

搭載GPUに応じた容量のメモリが必要で、これにより大規模モデルのトレーニングが可能になります。

ストレージ

SSDを使用することで、HDDよりも高速かつ効率的なデータ処理が可能です。

OS

Linuxを使用し、Ubuntuが利用されることが多いです。これは、Ubuntuをサポートするライブラリが多いことによります。

高性能なCPU、多くのGPUコア、大容量のメモリを搭載することでAIモデル開発をスムーズに行うことができます。

また、扱う予定のデータ量に応じて適切なPCスペックを検討してください。

AIモデル開発に特化したPC構成

AIモデル開発の研究開発に携わるお客様からの要望をヒアリングし、学習用途に特化した構成をご用意しました。
このモデルをベースとしたスペック変更も承っております。

100V環境可能AIモデル開発用マシン

ハイエンドGPUであるNVIDIA RTX6000 Adaを2枚搭載したモデルで、100Vの電源環境でもご利用いただけます。
近年のCPU・GPUは消費電力が上昇傾向にあり、複数のGPUを搭載する高性能なDeepLearning用ワークステーションは、200V環境での運用を前提とする場合が多いです。
200V環境が必須の場合は、設置環境の確保や配慮が必要になりますが、本モデルは一般的な電源環境でもご利用いただける点が特徴です。

なお、RTX6000 Adaは高度なGPU計算を想定した製品です。
RTX6000 Ada x2枚を搭載した構成は、実質的にGeforce RTX4090 x4枚を搭載した構成に匹敵するスペックがあると言えるでしょう。

参考価格:¥3,850,000-(税込)
CPU Intel Xeon W5-2465X 3.10GHz 16コア
メモリ 合計 128GB DDR5 4800 REG ECC 32GB × 4
ストレージ1 1TB SSD M.2
ストレージ2 4TB HDD S-ATA
ビデオ NVIDIA RTX6000 Ada 48GB (DisplayPort x4) x2
ネットワーク on board (2.5GbE x1 /10GbE x1)
筐体+電源 タワー型筐体 + 1600W
OS Microsoft Windows 11 Professional 64bit

テグシスの提案事例 - AI / 機械学習 / Deep Learning –

テグシスでは、AI開発や機械学習・DeepLearningを行うお客様へ、数多くのPC構成をご提案してきました。
以下はその代表的な事例ですが、WEBに掲載のない用途・構成でもお気軽にご相談ください。
長年の実績から、最適な構成をご提案します。

PC-10540
製品撮影/自動検査用マシン
予算60万円
DeepLearningを用いた自動検査で利用するPC構成。学習済みデータの利用を想定した産業用途向けPC事例。
PC-10572
地震動に関する機械学習のためのマシン
予算90万円
地震動に関する大量のデータを高速で学習することを目的としたマシン。GPUを利用した機械学習で重要なGPUメモリとメインメモリの容量に配慮した提案構成。
PC-10873
自然言語処理モデル用ワークステーション
予算150万円
BERTのFine-tuningを目的としたPC提案事例。RTX A6000を2枚搭載したGPUマシン。
PC-10992
AIサービス用マシン
予算160万円
DeepLearningの実験用PC。RTX4090を2枚搭載したXeon使用。お客様のご予算に合わせたカスタム事例。
PC-10872
AI学習用ワークステーション
予算210万円
RTX6000 Adaを搭載したAi学習用のマシン。強力な排気ファンで筐体内部のエアフローに配慮。
PC-10880
Geforce RTX4090 x4枚搭載マシン
予算250万円
DeepLearningを目的としたGPUマシン。ハイエンドGPU4枚を搭載し高効率な環境でDeepLearningを実現可能