Deep Learning

ディープラーニング/機械学習に使われているGPUの価格は?

ディープラーニング/機械学習に使われている最新のGPUは現時点ではほとんどNVIDIA製です。
いわゆるTESLA系のH100そしてA100、いわゆるQuadro系のA6000、A5500、A5000、A4500、A4000そしてA2000があります。
H100の価格は1GPUでおよそ480万円、A100 80GBの価格は1GPUでおよそ210万円と非常に高価です。
Quadro系で最新で最速のA6000の価格は、1GPUでおよそ70万円です(それぞれの価格は2022年7月1日弊社調べ)。
このほかにNVIDIA製のGPUにはゲームなどに使われるGeforce系があり、TESLA系やQuadro系に比べてかなり安価です。

Geforceではディープラーニング/機械学習ができないのでしょうか

ディープラーニングの学習速度は、Quadro系で最新で最速のRTX A6000(以下A6000)1GPUと、
価格が半分以下のGeforce RTX 3090(以下RTX3090)1GPUはほぼ同じです。
A6000 8GPUとRTX3090 8GPUの速度比較はこちら。
速度はほぼ同じですが、RTX3090の価格はA6000の半分以下です(2022年7月1日HPCDIY価格)。
Geforceを使うことにより、A6000の半分の費用で同じ学習速度、またはA6000と同じ費用で半分の時間で学習が終わる成果を得ることができます。

Geforceは厚みがあるので、複数枚を1つのPC/サーバに入れるのが難しいのでは?

ゲーム用途のGeforceは厚さが50mm以上あり、PCIe3スロットに1枚しか実装できません。
しかし、弊社で販売するRTX3090は厚さ40mm以下の特注品なのでPCIe 2スロットに1枚を(A6000と同様に)実装できます。
1台のサーバーに最大10枚のRTX3090を搭載することができます

Geforceでは1GPUの学習速度は速いが、複数GPUでの並列学習が遅いのでは?

複数GPUでの学習速度は確かにA6000の方が上ですが、DNNの種類によっては8GPU並列までA6000に近い並列速度が出ます。
特に2GPU並列学習の場合は低価格のNVLinkを1つ追加するだけで、A6000とほぼ同等の並列学習速度が得られます。
A6000 8GPUとRTX3090 8GPUの速度比較はこちら

Geforceは故障しやすいのでは?

HPCDIY製品に組み込んでRTX3090を380GPU以上販売していますが(2020年11月から2022年6月までの集計)、その中で故障したのは1GPUだけでした。
故障内容はFANが回らなくなるという現象で、FAN交換で正常状態に戻り、その後は故障していません。

A6000を1GPUの金額で、RTX3090を2GPU使って、ほぼ2倍の学習速度を得てはいかがでしょうか。

HPCDIYではRTX3090を1~2GPU, 1~4GPU, 1~8GPU, 1~10GPU搭載可能な製品を販売しています。

RTX3090 1~2GPUの製品はこちらをクリックすると、下に表示されます
RTX3090 1~4GPUの製品はこちらをクリックすると、下に表示されます
RTX3090 1~8GPUの製品はこちらをクリックすると、下に表示されます
RTX3090 1~10GPUの製品はこちらをクリックすると、下に表示されます

RTX3090の在庫数には限りがあります。お早めの見積もり依頼をお勧めいたします。

A100やRTX A2000~RTX A6000の構成を選択する場合は、
左側の絞り込み条件で、最大GPU数、GPUの種類、CPU数、CPUのメーカーと世代を選択していくと、
下に表示される製品が絞り込まれます。

全機種でOSにはLinuxまたはWindows、またはLinux/WindowsのDual Bootを選択可能

GPU、NVLink、CPU、メモリ、SSDなどの型番と数を自由に組み合わせて、独自のPC/サーバーを構成可能です。

IntelとAMDの最新CPUが1または2ソケットの機種を選択可能です。

選択可能なGPUは
  GeForce RTX 3090 24GB, 10496 CUDA Core, 328 Tensor Core, 82 RT Core, 350W
  RTX A6000 48GB, 10752 CUDA Core, 336 Tensor Core, 84 RT Core, 300W
  RTX A5500 24GB, 10240 CUDA Core, 320 Tensor Core, 80 RT Core, 230W
  RTX A5000 24GB, 8192 CUDA Core, 256 Tensor Core, 64 RT Core, 230W
  RTX A4500 20GB, 7168 CUDA Core, 224 Tensor Core, 56 RT Core, 200W
  RTX A4000 16GB, 6144 CUDA Core, 192 Tensor Core, 48 RT Core, 140W
  RTX A2000 12GB, 3228 CUDA Core, 104 Tensor Core, 26 RT Core, 70W
  RTX A2000 6GB, 3228 CUDA Core, 104 Tensor Core, 26 RT Core, 70W
  A100 PCIe 80GB, 6912 CUDA Core, 432 Tensor Core, 300W
  A100 NVLink 80GB, 6912 CUDA Core, 432 Tensor Core, 400W
です。各GPUの性能評価やベンチマークなどはこちら

OSはUbuntu22.04/20.04/18.04またはWindowsから選択、
NVIDIA Driver, Docker, Singularity,
CUDA Toolkit, cuDNN, NCCL,
Deep Learing Framework
をお好みに応じて、無料でインストールしますので、すぐにお使いになれます。

長時間の学習に必須のGPUのリソースを管理できるジョブスケジューラー、
お使いの最新の状態をバックアップできる、システムをクローンしてブート可能なメディア
(USBメモリ、外付けSSD、内蔵SSDなど)を作成するソフトウェアも無料でインストールいたします。

お届け前に高負荷テストをかけ、初期不良をスクリーニングしてから出荷いたしますので、
学習中にハングアップするなどのトラブルが避けられます。

万が一の障害にも3年間のセンドバック保守(RTX3090には1年間のセンドバック保守)が無料で付属しています。

表示方法 リスト

14 アイテム

降順
表示方法 リスト

14 アイテム

降順
Copyright © 2013-present Server Gear LLC. All rights reserved.