Skip to content

Latest commit

 

History

History
59 lines (31 loc) · 3.95 KB

buy-gpu.md

File metadata and controls

59 lines (31 loc) · 3.95 KB

GPU购买指南

深度学习训练通常需要大量的计算资源。GPU目前是深度学习最常使用的计算加速硬件。相对于CPU来说,GPU更便宜且计算更加密集。一方面,相同计算能力的GPU的价格一般是CPU价格的十分之一。另一方面,一台服务器通常可以搭载8块或者16块GPU。因此,GPU数量可以看作是衡量一台服务器的深度学习计算能力的一个标准。

本节主要针对购买一两台自用GPU服务器的个人用户介绍一些GPU购买须知。如果你是拥有100台机器以上的大公司用户,通常可以考虑Nvidia Tesla P100或者V100,详情请咨询数据中心维护人员。如果你是拥有10到100台机器的实验室和中小公司用户,如果预算充足,可以考虑Nvidia DGX-1,否则可以考虑购买如Supermicro之类的性价比较高的服务器。

选择GPU

目前独立GPU主要有AMD和Nvidia两家厂商。其中Nvidia在深度学习布局较早,对深度学习框架支持更好。因此,目前大家主要会选择Nvidia的GPU。

Nvidia有面向个人用户(例如GTX系列)和企业用户(例如Tesla系列)的两类GPU。这两类GPU的计算能力相当。然而,面向企业用户的GPU通常使用被动散热并增加了内存校验,从而更适合数据中心,并通常要比面向个人用户的GPU贵上10倍。因此,个人用户通常选用GTX系列的GPU。

Nvidia一般每一两年发布一次新版本的GPU,例如最近的GTX 1000系列。每个系列中会有数个不同的型号,分别对应不同的性能。

GPU的性能主要由以下三个参数构成:

  1. 计算能力。通常我们关心的是32位浮点计算能力。当然,特殊情况下也可考虑其他的计算能力,例如用16位浮点训练,用8位整数预测。
  2. 内存大小。当模型越大,或者训练时的批量越大时,所需要的GPU内存就越多。
  3. 内存带宽。只有当内存带宽足够时才能充分发挥计算能力。

对于大部分用户来说,只要考虑计算能力就可以了。我们建议GPU内存尽量不小于4GB。但如果GPU要同时显示图形界面,那么推荐的内存大小至少为6GB。至于内存带宽,通常厂家已在设计时考虑。

图11.19描绘了GTX 900和1000系列里各个型号的32位浮点计算能力和价格的对比。其中价格为Wikipedia的建议价格。

浮点计算能力和价格的对比。

我们可以从图11.19中读出两点信息:

  1. 在同一个系列里面,价格和性能大体上成正比。
  2. GTX 1000系列比900系列在性价比上高出2倍左右。

如果大家继续比较GTX较早的系列,也可以发现类似的规律。据此,我们推荐大家在能力范围内,尽可能买较新的GPU。如果预算充足,直接买最新的GPU。如果预算相对有限,购买入门的1050TI也是个不错的选择。

整机配置

通常,我们主要用GPU做深度学习训练。因此,不需要购买高端的CPU。至于整机配置,尽量参考网上推荐的中高档的配置就好。

不过,考虑到GPU的功耗、散热和体积,我们在整机配置上也需要考虑以下三个额外因素。

  1. 机箱体积。GPU尺寸较大,通常考虑较大且自带风扇的机箱。
  2. 电源。购买GPU时需要查一下GPU的功耗,例如50W到300W不等。购买电源要确保功率足够,并不会过载机房的供电。
  3. 主板的PCIe卡槽。推荐使用PCIe 3.0 16x来保证充足的GPU到主内存的带宽。如果搭载多块GPU,要仔细阅读主板说明,以确保多块GPU一起使用时仍然是16x带宽。注意,有些主板搭载4块GPU时会降到8x甚至4x带宽。

小结

  • 在预算范围之内,尽可能买较新的GPU。
  • 整机配置需要考虑到GPU的功耗、散热和体积。

练习

  • 浏览本节讨论区中大家有关机器配置方面的交流。

扫码直达讨论区