- 事例No.PC-TCPS254088
-
AI開発用GPUサーバー
用途:大規模言語モデルを活用した生成AIをローカル環境で運用参考価格:23881000円お客さまからのご相談内容
社内で大規模言語モデルを活用するため、ローカル環境で運用できる生成AI用ワークステーションの構築を検討したい。使用するソフトウェアはOllama、LM Studio、Dify、Pythonを想定。
CPU はコア数を十分に確保できるモデルを選定し、メモリは最低 1TB、可能であれば 2〜4TB クラスまで拡張しようと考えている。
GPU は NVIDIA RTX Pro 6000 Blackwell を複数枚搭載可能な構成を前提とし、搭載可能な最大枚数で運用したい。
OS は Ubuntuとし、100V 電源環境で動作することを条件とする。
ストレージは可能な限り大容量の NVMe SSD を搭載可能な最大数まで搭載し、全体として高い処理性能と拡張性を確保したい。予算 2,000 万円程度で構成を提案して欲しい。
通常24時間以内に担当者からご連絡いたします
テガラからのご提案
LLM推論・生成AI処理に最適化したCPU / メモリ構成
本構成では、生成AIやローカルLLMの運用に必要となる CPU コア数とメモリ帯域を重視しています。大規模モデルを効率的に処理するためには、GPU性能だけではなく、CPUの多コア性能と大量メモリへのアクセス性能が重要です。
そのため、最新世代のサーバー向けCPUを採用し、多コア処理能力と大容量メモリの両立を図っています。当初は1TBメモリ構成を想定していましたが、将来的なモデル拡張やRAGワークロードへの対応を見据え、今回は搭載可能な最大容量である4TBの構成でご提案しています。
RTX Pro 6000 Blackwell を採用した高密度 GPU 構成
お客様が複数の NVIDIA RTX Pro 6000 Blackwell を搭載したいと希望されていたため、4Uラックマウント筐体を採用し、最大枚数のGPUを安定して運用できるマザーボード構成を選定しました。
PRO 6000クラスのGPUを複数枚搭載する場合には、PCIeレーン数、発熱対策、電源容量などが大きな制約となります。本構成ではこれらの要件をすべて満たし、高密度なGPUサーバーとして安定したAI計算処理を実現します。
NVMeストレージの大容量化とRAID構成
可能な限り大容量のNVMe SSDを最大数搭載したい、という要望に対し、システム用SSDとは別に複数枚のNVMe SSDを搭載し、読み書き速度と冗長性を両立する構成をご提案しています。
この構成により、研究データやEmbeddingキャッシュを高速に扱え、RAG環境やDify・Ollamaなどのローカル推論環境で高いパフォーマンスを発揮できます。
電源環境 (100V希望 → 200V対応への変更)
当初は「100V環境で運用したい」とご相談いただきましたが、GPU多数搭載構成では100Vでは電源容量が不足するため、200V環境を整備される方針に変更となりました。
これにより、サーバー向け電源ユニットを採用できるようになり、マシン全体の安定性と将来拡張性を確保しています。












通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon 6515P 2.30GHz(TB 3.80GHz) 16C/32Tx 2 メモリ 合計4TB DDR5-6400 REG ECC 128GB x 32 ストレージ1 7.68TB U.2 NVMe SSD ストレージ2 15.36TB U.2 NVMe SSD ×5(RAID5) ビデオ NVIDIA RTX PRO 6000 BW Server Edition x 4 ネットワーク ネットワークカード 10GbE RJ45 2ポート 筐体+電源 4Uラックマウント筐体 3200W/200V リダンダント電源(3+1) OS Ubuntu 24.04 その他 RAIDカード Broadcom MegaRAID
レールキット一式
3年センドバック保証 (標準保証1年+延長保証2年)キーワード
・Ollamaとは
Ollamaは、ローカル環境で大規模言語モデル (LLM) を高速に実行できるオープンソースプラットフォーム。GPU最適化やモデルの軽量化が施されており、PythonやWebアプリケーションとの統合も容易。プライバシー保護が求められる企業環境や研究用途において、質量分析データ処理の自動化、ペプチド同定支援、解析スクリプト生成などにも応用可能。・LM Studioとは
LM Studioは、PCローカルで大規模言語モデルを管理・実行するための統合型アプリケーション。GUIでモデルのダウンロード、推論、プロンプト操作を完結でき、研究用スクリプト生成や質量分析 (MS/MS) データ解析ワークフロー構築の補助にも役立つ。ローカル推論によるセキュアなAI環境を必要とする技術者に最適。・Difyとは
Difyは、ノーコード/ローコードでAIアプリを構築できる統合プラットフォーム。RAG (検索拡張生成) 、ワークフロー自動化、モデル切替などが容易で、研究現場のレポート生成、質量分析データ解釈支援ツールの試作、ペプチド同定ヘルパーAIの構築などにも利用可能。クラウドとローカルの両方に対応。・Pythonとは
Pythonは、科学技術計算からAI・機械学習、質量分析データ解析、ペプチド同定アルゴリズム開発まで幅広く利用される汎用プログラミング言語。NumPy、SciPy、pandas、pyteomicsなど豊富なライブラリにより、グリコペプチド解析やMS/MSスペクトル処理の自動化が容易。研究者・エンジニアに必須の開発基盤。事例追加日:2026/2/12
- 事例No.PC-TW3J253492
-
RTX Pro 6000 Max-Q 2枚搭載 Unreal Engine対応ワークステーション
用途:ローカルLLM、Unreal Engine、Meta Human参考価格:6497700円お客さまからのご相談内容
事例No.PC-24000660を見ての問い合わせ。
ローカルLLMと、Unreal EngineのMeta Human用のワークステーションを購入したい。
希望する構成は、以下の通り。
・GPU:RTX 5090を3枚~4枚
・メモリ:128GB~256GB
・ストレージ:2TB以上通常24時間以内に担当者からご連絡いたします
テガラからのご提案
GPUと電源について
ご希望の性能を安定して引き出すためには、筐体サイズや排熱設計が重要になります。
とくに今回ご検討の「GeForce RTX 5090 を3〜4枚」構成は、筐体・カードサイズ・排熱の関係で物理的な制約があります。そこで、より安定して高い性能を発揮できる選択肢として、NVIDIA RTX PRO 6000 MaxQ (96GB) を中心にした構成をご提案しています。
RTX PRO 6000 Max-Q は単体でVRAM 96GBを搭載しており、RTX 5090 (VRAM 32GB) 3枚分に相当します。
1枚でも十分な性能を発揮できますが、お客さまより追加でご相談があったため、今回は同GPUを2枚搭載した場合の構成をご用意しています。電源には1600Wユニットを採用しており、2枚構成でも十分な電力を供給可能です。
補足として、今回の構成は100V環境でご利用いただけますが、CPU負荷の高い処理が中心の場合は、より余裕をもって運用できる200V環境のご利用を推奨しています。CPUとメモリについて
CPUには、大容量データの処理や並列演算に強いIntel Xeon W7-3555 (16コア) を選定しました。
メインメモリは512GBを搭載しており、GPUのVRAM合計に対して十分な余裕を確保しています。
一般的にワークステーションでは、メインメモリはGPUのVRAM合計容量より大きく確保することが推奨されます。
これにより、CPUとGPU間でのデータ転送が滞らず、安定した処理速度を維持できます。このような分野で活躍されている方へ
- 自然言語処理
- CG・映像制作
- AIモデル開発
- ゲームエンジン研究
- VR/AR技術
テガラのオーダーメイドPC製作サービスは、導入時の用途に加え、将来的な研究規模の拡大を見据えたシステムの拡張にも対応しています。
各種ソフトウェア要件に応じた構成のご提案はもちろん、研究環境全体の構築に関するご相談も承っています。
お客様のニーズに合わせて最適なソリューションをご提供しますので、どうぞお気軽にお問い合わせください。







通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon W7-3555 2.70GHz (TB3.0時 最大4.8GHz) 28C/56T メモリ 合計512GB DDR5 5600 REG ECC 64GB x 8 ストレージ1 4TB SSD M.2 NVMe Gen5 ×2枚 (RAIDなし) ストレージ2 15.36TB SSD NVMe ビデオ NVIDIA RTX PRO6000 Max-Q 96GB ×2枚構成 ネットワーク on board (1GbE x1 /10GbE x1) 筐体+電源 ミドルタワー型筐体+1600W 80PLUS TITANIUM OS Microsoft Windows 11 Professional 64bit その他 Ubuntu22.04 デュアルブート設定 キーワード
Meta Humanとは
Meta Humanは、Unreal Engine向けのクラウド型人物生成ツールです。
直感的なブラウザ操作により、写実性の高い人物キャラクターを短時間で作成できます。
ゲームや映像制作に加え、大学や企業の研究者がVR/AR、ヒューマンインタフェース、心理・社会シミュレーション分野で活用されています。事例追加日:2026/1/28
- 事例No.PC-TW2M253280
-
大容量VRAM搭載LLMローカル検証用ワークステーション
用途:ローカル環境でのLLM検証 (Ollama)参考価格:5127430円お客さまからのご相談内容
大規模言語モデル(LLM)のローカル検証を目的にした、高性能PCを導入したい。
VRAM容量は不問、可能な限り多くの高性能GPUを搭載した構成を希望する。
予算は250万〜500万円程度で、Ollamaの利用を想定。
GPUドライバー、CUDA ToolkitおよびcuDNNのプリインストールも依頼したい。
環境は、200V電源の使用が可能。テガラからのご提案
GPUの選定について
今回の用途では、GPU性能とVRAM容量の両立が重要です。
LLMによっては140GB程度のVRAMが必要となることもあるため、NVIDIA RTX PRO 6000 Max-Q(96GB)を2枚搭載する構成をご提案しました。
さらに、3枚目のRTX PRO 6000 Max-Qの増設にも対応できるよう、空きPCIeスロットを確保した設計です。テグシスでは LLM における GPU 性能差をまとめた技術記事を公開しています。
前編では RTX 5090 / RTX 4090 / RTX 5000 Ada の実測比較を、続編では RTX PRO 6000 Max-Q を加えた検証 をご紹介しています。
詳細な検証結果は、下記をご覧ください。

メモリ構成と拡張性
LLMの推論では、VRAMを十分に確保することが前提となり、あわせてシステムメモリも同程度以上の大容量が求められます。
本構成では、256GB (64GB×4枚) のメモリを実装し、空きスロットには同容量 (64GB) のモジュールを増設可能です。将来的に3枚目のGPUを増設する場合、VRAMの総量は 96GB × 3 = 288GB となります。
その際には、空きスロットを活用してメモリを増設することで、適切なシステムメモリを無理なく満たせます。
これにより、GPU増設後もボトルネックを避けて、安定したデータ処理を実現できます。ソフトウェアの事前環境構築
GPUドライバー、CUDA Toolkit、cuDNNを適切なバージョンでプリインストールし、即時利用可能な環境で納品します。
PyTorchなどのフレームワークは、お客様によるセットアップを予定していますが、当社でも導入実績があり、必要に応じてご相談も承ります。このような分野で活躍されている方へ
- 人工知能
- 自然言語処理
- 機械学習
- 計算機科学
- 情報システム
テガラのオーダーメイドPC製作サービスは、導入時の用途に加え、将来的な研究規模の拡大を見据えたシステムの拡張にも対応しています。
各種ソフトウェア要件に応じた構成のご提案はもちろん、研究環境全体の構築に関するご相談も承っています。
お客様のニーズに合わせて最適なソリューションをご提供しますので、どうぞお気軽にお問い合わせください。







通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon W3-2525 3.50GHz (TB3.0時 最大4.5GHz) 8C/16T メモリ 合計256GB DDR5 5600 REG ECC 64GB x 4 ストレージ 1TB SSD S-ATA ビデオ NVIDIA RTX PRO6000 Max-Q 96GB ×2枚構成 ネットワーク on board (2.5GbE x1 /10GbE x1) 筐体+電源 ミドルタワー型筐体+1600W 80PLUS PLATINUM OS Ubuntu 24.04 その他 12A 200V電源ケーブル C19 – C14
インストール作業(GPUドライバー、CUDA Toolkit、cuDNN)キーワード
CUDA Toolkitとは
CUDA Toolkitは、NVIDIAが提供するGPUコンピューティング開発環境です。
C/C++やFortranでのGPUプログラミングを可能にし、ディープラーニングや数値解析などで高速計算を実行できます。cuDNN(CUDA Deep Neural Network library)とは
cuDNNは、NVIDIAが提供する、GPUを用いたディープニューラルネットワーク(DNN)計算を高速化するための高性能ライブラリです。
TensorFlowやPyTorchといった主要フレームワークに組み込まれており、大学・企業の研究者が日常的に利用しています。cuDNNを使う最大のメリットは、フレームワークごとにGPU向けの最適化コードを書く必要がないことです。
NVIDIAがチューニングした演算処理やメモリ管理により、畳み込み演算やプーリング、正規化など、DNNで頻繁に使われる処理を安定して高速に実行できます。事例追加日:2025/11/25
- 事例No.PC-TUKM253379
-
Llama-3対応自然言語処理用ワークステーション
用途:日本語LLM推論、自然言語処理参考価格:1210000円お客さまからのご相談内容
事例No.PC-10873を見ての問い合わせ。
elyza の Llama-3-ELYZA-JP-8B を用いて自然言語処理を行い、文章の要約を実行しているが、現在使用中のPCでは1件あたりの演算に5分以上かかってしまう。
処理時間を短縮するため、新たにPCの導入を検討しており、予算は税込146万円以内を希望している。
大学に提出する参考資料として、パーツ構成や見積額の詳細を知りたい。テガラからのご提案
お客様のご要望を踏まえ、計算時間の短縮を目的として、GPUおよびメモリ性能を重視した構成をご提案いたしました。
LLMを高速に動かすために重要なGPU
LLMの推論処理では、GPUのVRAM容量と演算性能が処理時間に大きく影響します。
特に、十分なVRAM容量があることで、より大規模なモデルをGPU単体で処理できるようになり、効率的な推論が可能となります。
一方、VRAMが不足するとメモリスワップが発生し、GPUとCPU間のデータ転送がボトルネックとなって、処理速度が著しく低下します。例えば、Llama-3-ELYZA-JP-8BをINT8量子化で運用する場合、約17GBのVRAMが必要です。
そのため、最低でも24GB以上のVRAMを搭載することが推奨されています。RTX 5090は、最新のCUDAおよびTensorコアを搭載したモデルで、同じVRAM容量を持つRTX 5000 Adaと比較して、約2倍の推論速度を記録した検証結果が報告されています。
この性能差を踏まえ、今回の構成ではRTX 5090を採用しました。詳細な検証結果は、下記の技術記事をご覧ください。
GeForce RTX 4090との比較検証結果も記載されております。高負荷のLLM推論にも安定して対応できる計算性能を備えているため、実運用環境では処理時間の大幅な短縮が期待できます。
LLM推論におけるメインメモリの重要性
LLMの安定稼働には、GPUのVRAMに加えて、ホスト側メモリの確保が不可欠です。
モデルのロード時にはVRAMを超える一時メモリが必要となる場面があるほか、入力テキストや生成結果の保持にもメインメモリが消費されます。こうした運用条件を踏まえ、本設計では128GB(64GB × 2)のDDR5メモリを標準搭載しました。
さらに空きスロット (4スロット中2スロット未使用) を活用することで、最大256GBまでのメモリ増設が可能です。
将来的なモデルの大規模化やバッチ処理の拡張にも、柔軟に対応できる構成です。このような分野で活躍されている方へ
- 自然言語処理
- 人工知能
- 情報学
- 計算言語学
- 知識情報処理
バッチサイズや量子化設定など、運用条件に応じた最適な構成をご提案いたします。具体的なご用途があれば、ぜひご相談ください。










通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Core Ultra 9 285K 3.70GHz(8C/8T)+3.20GHz(16C/16T) メモリ 合計128GB DDR5 6400 64GB x 2 ストレージ1 2TB SSD M.2 NVMe Gen4 ビデオ NVIDIA GeForce RTX5090 32GB ネットワーク on board(2.5GBase-T x1) Wi-Fi,Bluetooth 筐体+電源 ミドルタワー型筐体 1600W 80PLUS TITANIUM OS Microsoft Windows 11 Professional 64bit キーワード
・Llama-3-ELYZA-JP-8B とは
Llama-3-ELYZA-JP-8Bは、株式会社ELYZAがMeta社の「Llama 3」を基に開発した、日本語に特化した大規模言語モデルです。
80億パラメータというコンパクトさと、日本語らしいニュアンスを捉える力を両立させており、情報工学・計算機科学分野や言語学研究に活用されています。ローカル環境で動作するため、機密データや社内情報を外部に出さずに処理できる点も特長です。事例追加日:2025/8/22
- 事例No.PC-TW2D252130
-
大規模言語モデル計算処理向けマシン
用途:Llama推論、ローカルLLM、Difyアプリケーション開発参考価格:4526500円お客さまからのご相談内容
事例No.PC-10880を見ての問い合わせ。
ローカル環境でLLMを活用するため、LLMの計算に必要なマシン購入を検討している。計算に必要なマシンスペックがわからないため、どのような仕様が必要になるか含めて知りたい。
また、その他必要な周辺機器、指定ソフトウェアのインストール可否を教えてほしい。
Difyと、METAのLlama 3.3 (70B) の使用を想定している。
NVIDIA Geforce RTX 4090 24GB でLlama 3.3を計算させたところVRAM使用率が99%となり不足していることを確認した。テガラからのご提案
事例No.PC-10880をベースに、現行世代のパーツで作成しました。
大規模言語モデル (LLM) の推論や学習をローカル環境で安定稼働させたい研究者・エンジニア向けの仕様です。GPUとしてNVIDIA RTX 6000 Ada 48GBを2基搭載し、AI推論・学習処理を高速化します。
さらに、画面描画用としてRTX A400 4GBを別途採用しているため、計算処理と表示処理を分離し、安定運用が可能です。また、ECC対応DDR5メモリを搭載しており、長時間の計算処理に対する高い信頼性があります。
PCI-E x16スロットを4基備えているため、GPUの追加にも柔軟に対応可能です。
電源には1500W PLATINUMを採用し、生成AIやLLM開発など安定運用が求められる環境でも安心して使用できます。最新GPUを搭載し、ご相談いただいた各種ソフトウェアもインストール済みのため、購入後すぐに研究や開発業務に活用できます。
このような分野で活躍されている方へ
- 計算機科学
- 自然言語処理
- AI工学
- 情報システム開発
- 応用統計学
※本構成はソフトウェアのライセンス・セットアップ費用も含んだ価格です。
掲載されていない仕様や特殊要件についても柔軟に対応いたしますので、ぜひお気軽にご相談ください。









通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon W5-2565X 3.20GHz (TB3.0時 最大4.8GHz) 18C/36T メモリ 合計256GB DDR5 5600 REG ECC 32GB x 8 ストレージ 2TB SSD M.2 NVMe Gen4 ビデオ NVIDIA RTX 6000 Ada 48GB x 2基構成
NVIDIA RTX A400 4GB (MiniDisplayPort x 4)ネットワーク on board (2.5GbE x1 /10GbE x1) 筐体+電源 タワー型筐体 1500W 80PLUS PLATINUM OS Microsoft Windows 11 Professional 64bit その他 ソフトウェアインストール
・Dify (v0.15.2+)
・Ollama (v0.5.7+, Desktop 2.139.1733+)
・Llama 3.3 model
・Docker Desktop (企業利用はライセンス要確認)
・Power BIキーワード
・Llamaとは
Llamaは、Meta社が開発した大規模言語モデル群。
Llama 3.3 (70B) などパラメータ数が多いモデルは高性能GPUと大容量メモリを必要とし、ローカル運用時の計算負荷が大きい。
最新論文やモデル情報は研究開発でも注目されている。・Difyとは
Difyは、オープンソースの生成AIアプリケーション開発プラットフォーム。
LLMを活用したアプリ構築を迅速化でき、API連携やチャットボット作成も容易。
LLM推論環境と合わせて導入するケースが増えている。事例追加日:2025/7/9
- 事例No.PC-25000461
-
機械学習・大規模言語モデル (LLM) 処理向けマシン
用途:画像解析、自然言語処理参考価格:3297800円お客さまからのご相談内容
予算330万円 (税込) 未満で、機械学習を用いた画像識別や大規模言語モデルを使用した自然言語処理なども実施可能なマシンを希望する。
想定しているスペックは以下の通り。OS:Ubuntu
メモリ:256GB以上
ストレージ:SSD 1TB以上、HDD 4TB以上
GPU:NVIDIA RTX 6000 Ada 世代 / 48GB以上テガラからのご提案
ご連絡いただいたご要望に合わせて構成を検討しました。
なお、ご提示の条件に対してご予算に余裕がありましたため、より快適な運用を見据えて、SSDおよびHDDの容量をそれぞれ2倍に拡張 (SSD 1TB→2TB、HDD 4TB→8TB) しました。電源要件について
本構成は、将来的な拡張を想定していないGPU1基のみとなっております。
そのため、ご家庭や一般的なオフィス環境における「100V電源」で使用が可能です。
導入時以降にGPUの増設を検討される場合には、適切な電源ユニットや運用環境などを個別にご案内いたします。同一型番のGPU「NVIDIA RTX 6000 Ada 48GB」を2基搭載した仕様の導入事例もございますので、下記ページをご参照ください。
また、LLM要約タスクを用いて、GPU構成ごとの処理性能を比較検証した結果も公開しております。
ぜひ、構成検討の参考にご覧ください。GPUの増設や複数基の搭載に伴って構成全体の消費電力が増加する場合、200V電源環境でのご利用が必要となるケースもございます。
総消費電力の目安として、1600Wの電源ユニットをご利用の場合、200V環境では最大出力の1600W、100V環境ではおよそ1200Wまで対応可能です。
ご提示いただいたご希望に合わせて柔軟なマシンをご提案いたします。掲載内容とは異なる条件でも、お気軽にご相談ください。








通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon W7-2575X 3.00GHz (TB3.0時 最大4.8GHz) 22C/44T メモリ 合計512GB DDR5 5600 REG ECC 64GB x 8 ストレージ1 2TB SSD S-ATA ストレージ2 8TB HDD S-ATA ビデオ NVIDIA RTX 6000 Ada 48GB (DisplayPort x 4) ネットワーク on board (2.5GbE x 1 /10GbE x 1) 筐体+電源 ミドルタワー型筐体 1500W 80PLUS PLATINUM OS Ubuntu 24.04 事例追加日:2025/6/5
- 事例No.PC-11242
-
生物学向け大規模言語モデルの学習用マシン
用途:生物学向け大規模言語モデル (ProteinBERT、 ChemBERTa、 HyenaDNAなど) の学習参考価格:2528900円お客さまからのご相談内容
生物学向け大規模言語モデルの学習用マシンの導入を検討している。
ProteinBERT、 ChemBERTa、 HyenaDNAといった生物学で用いられる大規模言語モデルを事前学習から実行したいと考えている。ProteinBERTはNvidia Quadro RTX 5000、ChemBERTaはNVIDIA Tesla T4、HyenaDNAはNVIDIA A100をそれぞれ学習に使用したとの情報があるため、GPUの性能を重視したい。
予算300万円以内で、上記の用途における計算処理を最も高速化できる構成を提案してほしい。
また、設置場所の制限があるため、筐体サイズはミドルタワー程度で、100V環境で使用可能な構成が望ましい。
希望する条件は以下の通り。
・GPU:性能重視
・電源:100V環境に対応
・筐体:ミドルタワー程度
・予算:300万円以内テガラからのご提案
お客さまご希望の条件に沿った構成をご提案しました。
ご予算・利用環境を踏まえたうえで、GPU性能を重視した構成です。GPUの選定について
GPUはNVIDIA RTX A6000 x2枚を搭載しています。
ProteinBERT開発元の公式サイトによると、学習済みモデルの構築にはNVIDIA RTX5000を用いて1か月ほど要したと記載されています。
A6000はRTX5000より世代が新しく、ラインナップ上でも上位モデルにあたる製品のため、RTX5000よりも高い処理性能が期待できます。例として挙げていただいたNVIDIA Tesla T4は、推論向けとして利用されることが多い製品です。そのため、本構成ではNVIDIA TeslaT4よりも単体性能が高いA6000を採用しています。
NVIDIA A100とRTX A6000の違い
また、NVIDIA A100は、A6000とは異なり、GPGPU専用カードです。
高いfp64性能を持ち科学計算に適した製品ですが、今回のようなDeepLearning用途ではfp64性能が利用されることはほとんどありません。
あわせて、価格に関してもA6000と比較して非常に高額で、かつ専用の筐体でなければ利用できないことから、今回の利用条件や用途におけるマッチングが高くないと判断しました。ストレージに関しては、ProteinBERTの開発元よりユーザー自らモデルの学習を行う場合は1TB以上のストレージ容量を確保することが推奨されているため、2TBのシステムディスク、4TBのデータディスクを搭載しています。
なお、学習中に頻繁なデータアクセスが発生することを想定して、ストレージはすべてSSDとしています。OSはWindows 11を選択しています。
ご使用予定の言語モデルは基本的にはPythonパッケージで提供されているもののため、Pythonを使用可能なOSであれば、ご希望に応じて変更も可能です。本事例の構成は、お客様から頂戴した条件を元に検討した内容です。
いただいた条件に合わせて柔軟にマシンをご提案いたしますので、掲載内容とは異なる条件でご検討の場合でも、お気軽にご相談ください。





通常24時間以内に担当者からご連絡いたします
主な仕様
CPU Intel Xeon W5-2455X (3.20GHz 12コア) メモリ 128GB REG ECC ストレージ1 2TB SSD M.2 ストレージ2 4TB SSD S-ATA ビデオ NVIDIA RTX A6000 48GB x2 ネットワーク on board (1GbE x1 /10GbE x1) 筐体+電源 ミドルタワー型筐体 + 1500W OS Microsoft Windows 11 Professional 64bit キーワード
・DeepLearningとは
DeepLearningは機械学習の一種であり、多層のニューラルネットワークを用いて高度なパターン認識や予測を行う手法。一般的に大量のデータを必要とするため、データが豊富な場合に効果的な手法とされている。 また、DeepLeanigは画像認識や音声認識、自然言語処理などの分野で広く用いられている。複雑な特徴や関係性を学習することができるため、従来の機械学習手法よりも高い精度を発揮することができる。・Pythonとは
Pythonは、Python Software Foundation (PSF) が著作権を保持する、オブジェクト指向プログラミング言語。プログラミングの構文がシンプルなため可読性が高く、目的に応じたライブラリやフレームワークといったコンポーネントが豊富に揃っていることも特徴。プログラミングの初学者から上級者に至るまで人気の言語。・BERTとは
BERT (Bidirectional Encoder Representations from Transformers) は、Googleが開発した自然言語処理 (NLP) モデル。与えられた文脈に基づいて単語を理解することができ、言語処理における幅広いタスクに適用される。
また、BERTは事前学習とファインチューニングの2つのフェーズで構成されている。事前学習では、大規模なコーパスから学習された汎用的な言語モデルが作成される。ファインチューニングでは、特定のタスクに適用するために、小規模なデータセットから学習されたモデルが調整される。
従来のNLPモデルに比べて高い精度を示し、複雑なタスクにも対応できることが特徴で、テキスト生成、質問応答、文書分類、言語翻訳などに応用されており、NLPの分野で最も有名なモデルの1つとして広く使われている。・ProteinBERTとは
ProteinBERTは、BERTをベースにしたタンパク質言語モデル。 UniRef90データベース上の最大1億600万のタンパク質で事前学習されており、非常に長いタンパク質配列を含む、ほぼあらゆる長さのタンパク質配列を処理することが可能。・ChemBERTaとは
ChemBERTaは、RoBERTa (BERTの亜種) を用いた、化学構造の表記方法であるSMILES記法の大規模言語モデル。 医薬品設計、化学モデリング、特性予測などに用いられている。・HyenaDNAとは
HyenaDNAは、ヒトゲノムを100万トークンの塩基配列として事前学習した大規模言語モデル。 単一ヌクレオチド単位 (ATGC) でのトークン化により、ヌクレオチド単位での解析が可能。事例追加日:2023/11/09
ご注文の流れ
![]() |
お問い合わせフォームよりご相談内容をお書き添えの上、 お問い合わせください。 (お電話でもご相談を承っております) |
![]() |
弊社より24時間以内にメールにてご連絡します。 |
![]() |
必要に応じてメールにて打ち合わせさせていただいた上で、 メール添付にてお見積書をお送りします。 |
![]() |
お見積もり内容にご納得いただけましたら、メールにてご注文ください。 ご注文確定後、必要な部材を手配し PCを組み立てます。 (掛売りの場合、最初に新規取引票のご記入をお願いしております) |
![]() |
動作チェックなどを行い、納期が確定いたしましたらご連絡いたします。 (納期は仕様や製造ラインの状況により異なります) |
![]() |
お客様のお手元にお届けいたします (ヤマト運輸/西濃運輸) |
お支払い方法
お支払い方法は、お見積もりメール・お見積書でもご案内しています。
| 法人掛売りのお客様 |
| 原則として、月末締、翌月末日払いの後払いとなります。 |
| 学校、公共機関、独立行政法人のお客様 |
| 納入と同時に書類三点セット(見積書、納品書、請求書)をお送りしますのでご請求金額を弊社銀行口座へ期日までにお振込み願います。 先に書面での正式見積書(社印、代表者印付)が必要な場合はお知らせください。 |
| 企業のお客様 |
| 納品時に、代表者印つきの正式書類(納品書、請求書)を添付いたします。 ご検収後、請求金額を弊社銀行口座へお支払い期日までにお振込み願います。 |
| 銀行振込(先振込み)のお客様 |
| ご注文のご連絡をいただいた後、お振込みを確認した時点で注文の確定とさせていただきます。 |
修理のご依頼・サポートについて
弊社製PCの保証内容は、お見積もりメールでもご案内しています。
■お問合せ先
テガラの取り扱い製品に関する総合サポート受付のWEBサイトをご用意しております。
テガラ株式会社 サポートサイト
※お問い合わせの際には、「ご購入前」と「ご購入後」で受付フォームが分かれておりますので、ご注意ください。
| メール | support@tegara.com |
| 電話 | 053-543-6688 |
■テグシスのサポートについて
保証期間内の修理について
保証期間内におけるハードウェアの故障や不具合につきましては、無償で修理いたします。
ただし、お客様による破損や、ソフトウェアに起因するトラブルなど保証規定にて定める項目に該当する場合は保証対象外となります。
保証期間経過後も、PCをお預かりしての初期診断は無料で実施しております。
無料メール相談
PCの運用やトラブルにつきまして、メールでのご相談を承ります。経験・知識の豊富な技術コンサルタントが無料でアドバイスいたします。
※調査や検証が必要な場合はお答えできなかったり、有償対応となることがあります
オプション保証サービス
| 「あんしん+」 もしもの時の延長保証サービス |
|
PCのご購入時にトータル5年までの延長保証をご選択いただけます。また、ご購入後にも延長保証を申し込むことができます。
|
| HDD返却不要サービス |
|
保証期間内にPCのHDD(SSD)が故障した場合、通常、新品のHDDとの交換対応となり、故障したHDDはご返却いたしません。
|
| オンサイト保守サポート | |
|
故障発生時、必要に応じエンジニアスタッフが現地へ訪問し、保守対応を行うサービスです。
|
「お客様だけのオーダーメイドPC」を製作しています。
用途に応じた細かなアドバイスや迅速な対応がテガラの強みです。
上記の仕様はテガラでお客様に提案したPC構成の一例です。
掲載内容は提案当時のものであり、また使用する部材の供給状況によっては、現在では提供がむずかしいものや、部材を変更してのご提案となる場合がございます。
参考価格については、提案当時の価格(送料込・税込)になります。
ご相談時期によっては価格が異なる場合がございますので、あらかじめご了承ください。












