# GPU choice 2019
今年可選擇產品多了很多,怎選擇好?機器怎麼選擇?GPU有哪些?
選擇下一代4830AT,可以搭配起手勢如2080ti,四張或者八張,都是很好的價格入門
一張就是四萬內.
一定要選A,至少有T(10g網路) [拓樸網路介紹](https://reurl.cc/06mMA)
以效能跟戰鬥力最猛的,肯定是8片的Titan RTX,這個有24g GPU ram.
深度學習能力簡直猛到爆
價格到了82990含稅.比起以前2.6萬上下的1080ti貴了許多,但比Titan V 9.7萬便宜.
數據都可以反覆透過 (更多數據[聯繫我們](http://www.honghutech.com/about-us/contact-us))
新版 http://gpu2.easyapi.com/
舊版https://chuanli.easyapi.com/
來選擇與思考
gpu ram要求不高的,可以用[2080ti單風扇](https://www.leadtek.com/eng/products/graphics_cards(1)/WinFast_RTX_2080_Ti_CLASSIC_11G(10819)/detail)入門.預算更低也可以採用[2080(8g)](https://www.leadtek.com/eng/products/graphics_cards(1)/WinFast_RTX_2080_CLASSIC_8G(10815)/detail),用於教學尚可.
gpu ram要求高的,選擇[titan rtx](http://www.honghutech.com/nvidia-titan-rtx)入門.或者Quadro RTX 5000 (16g ram,[聯繫我們](http://www.honghutech.com/about-us/contact-us)).或者Quadro RTX 6000(24g, 約4000美元,[聯繫我們](http://www.honghutech.com/about-us/contact-us)).或者就是直攻Tesla V100 32gb Pcie.
* 以原本1080ti 8張跑resnet 50約1336 張/s(FP32)~1575(FP32+16) https://bit.ly/2CVp9an (鴻鵠自己測試)
* 現在4張2080ti 1036張/s(FP32)~1618張/s(4顆),1650張/s(nvlink)就超越了過去的8張1080ti.
* Titan RTX 2張 ,FP32為630張/s,FP16為1162張/s
都可以做為選擇思路
* 雖然現在的8張2080ti跑resnet 50,是2529張/s(FP16),比起單張466張/s倍數比率5.42較為不佳,應該是[p2p](https://www.pugetsystems.com/labs/hpc/P2P-peer-to-peer-on-NVIDIA-RTX-2080Ti-vs-GTX-1080Ti-GPUs-1331/)關閉的關係.
* 去年1080ti x8,跑restnet 50,可以達到1801張/s(FP16),是單顆的263張/s的6.84倍,倍數效益稍差.
* 2080ti跑resnet 152,8張是715張/s(FP16).單張是167張/s,倍數是4.28效益更不好一些
* Tesla v100 32gb sxm2 x8,搭配nvlink,2149張/s(FP16,Resnet 152).單張則為304張/s. 倍數是7.06 效果是非常好.
RTX 2080ti (核心4352)=Titan RTX(4608),差別在於ram,11gb vs 24gb,2080ti少了256核心
RTX 6000(核心4608)=RTX 8000(核心4608), 24gb vs 48gb
都是滿血圖靈4608核!!
至於Quadro RTX 6000(24gb),以及未來的Quadro RTX 8000(48gb)
都是滿血圖靈TU102,8000的多了48gb ram,基本上batch size提高,深度學習速度幾乎是翻倍
這張價格應該在1萬美,有ram高度需求的醫療影像等等,是可以考慮
價格便宜的多卡主機
還是可以回到4820A,甚至不用4820AT,採用E5系列cpu.
同樣有充足的8+8pin可以接卡,外搭專用gpu上蓋.
8顆titan rtx實際運作狀況 https://youtu.be/kRVFDg-G5gs
跑resnet152(更深層的神經網絡,FP32是721張/s,FP16可以到1190張,加上nvlink可以到1230張/s (v100 32gb sxm2 x8,2149張/s,resnet152,FP16)
溫度落在85-86C 還行
Honghutech M1
![](https://i.imgur.com/RlGz9uJ.jpg) ![](https://i.imgur.com/9oVxbXE.png)
單顆cpu,可以搭配到4顆GPU,可選擇2080ti*4,[Titan Rtx](http://www.honghutech.com/nvidia-titan-rtx)*4,GV100,Quadro RTX 5000,6000,8000等
4020AT,4830AT
然而,在新版機器的加持下,[hyperplane](https://lambdalabs.com/products/hyperplane)的機器(v100 32gb sxm2 x8),在resnet50將可以達到6006張/s,比Titan RTX x8 3692張/s,2080ti x8 2529張/s,1080ti x8 1801張/s.簡直是巨幅的跳升
然而比拚單精度Fp32,差異就沒有那麼巨幅. v100 x8 3136張/s,Titan RTX x8 2196張/s,2080ti x8 1762張/s,1080ti x8 1431張.
在resnet152下,也是大 http://chuanli.info/
* 2018.12.30首個Titan RTX深度學習評測結果出爐:2019年你該選擇哪款GPU? http://bangqu.com/38wjKK.html
* [各種gpu比較表](https://docs.google.com/spreadsheets/d/1PpjPnBpLN2TyX49LphGTPPZkA6A-cIUqGUacgm3yMc0/edit?ts=5bebd122#gid=0) 單張 鴻鵠內部不對外![](https://i.imgur.com/R320REh.png)
* [Titan RTX TensorFlow Benchmarks](https://lambdalabs.com/blog/titan-rtx-tensorflow-benchmarks/) 單張卡比較
![](https://i.imgur.com/qptDRUX.png)
![](https://i.imgur.com/1TENbiG.png)
[我們自己實測 2080ti vs v100](http://honghu.wengscafe.de:35703/Benchmarks_MXNet_ImageNet2012_ResNet50.html)
![](https://i.imgur.com/qsKorRM.png)
* 另一種角度,
2080ti 36990x8=295920(含稅),買不起一張Tesla V100 32GB (1萬美).或者快要買得起一張.
* titan rtx x8 82990x8=663920(含稅). 得花2.243倍金額換更高的計算力.相當於兩張v100價格.
* titan rtx x4 82990x4=331960(含稅). 可以買得起一張tesla v100.
* rtx2080ti x4 36990x4=147960(含稅). 搭配honghutech M1 效益不錯.
* titan rtx x2 82990x2=165980(含稅). 搭M1或者其他的工作站,30萬上下.
結論:https://lambdalabs.com/blog/titan-rtx-tensorflow-benchmarks/
如果 11 GB 的 GPU 內存足夠滿足你的訓練需求(能滿足大部分人),RTX 2080 Ti 是最適合做機器學習/深度學習的 GPU。因爲相比於 Titan RTX、Tesla V100、Titan V、GTX 1080 Ti 和 Titan Xp,2080Ti 有最高的性價比。
如果 11GB 的 GPU 內存滿足不了你的訓練需求,Titan RTX 是最適合做機器學習/深度學習的 GPU。但是,在下結論之前,試試在半精度(16 bit) 上的訓練速度。損失一定的訓練準確率,能有效地把 GPU 內存翻倍。如果在 FP16 半精度和 11GB 上的訓練還是不夠,那就選擇 Titan RTX,否則就選擇 RTX 2080 Ti。在半精度上,Titan RTX 能提供 48GB 的 GPU 內存。
如果不在乎價錢且需要用到 GPU 的所有內存,或者如果產品開發時間對你很重要,Tesla V100 是最適合做機器學習/深度學習的 GPU。
搭配排程軟體 2萬 單節點 K8S UI.
![](https://i.imgur.com/6cUMWQW.jpg)
![](https://i.imgur.com/ZNMkWjK.jpg)
![](https://i.imgur.com/c9JFUTe.jpg)
![](https://i.imgur.com/RNMAcTM.jpg)
![](https://i.imgur.com/DXSyuoc.jpg)
![](https://i.imgur.com/HqqDBEV.jpg)
![](https://i.imgur.com/wnOLJoD.jpg)
![](https://i.imgur.com/BU5WpeE.jpg)
![](https://i.imgur.com/2pJgRmF.jpg)