AWS使用什么实际的Tesla M60模型?


14

维基百科,Tesla M60具有2x8 GB RAM(无论它是什么意思)和TDP 225–300W。

我使用一个EC2实例(g3s.xlarge),该实例应该具有Tesla M60。但是nvidia-smi命令说它有8GB内存和最大功率限制150W:

> sudo nvidia-smi
Tue Mar 12 00:13:10 2019
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 410.79       Driver Version: 410.79       CUDA Version: 10.0     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla M60           On   | 00000000:00:1E.0 Off |                    0 |
| N/A   43C    P0    37W / 150W |   7373MiB /  7618MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      6779      C   python                                      7362MiB |
+-----------------------------------------------------------------------------+

这是什么意思?我会得到一半的卡吗?按照ram规格(2x8)的建议,Tesla M60实际上是将两张卡在一起吗?

Answers:


20

是的,特斯拉M60是两个GPU粘在一起,而且每个g3s.xlarge或g3.4xlarge实例都有一个两个GPU的。


顺便说一句,“ s”在“ g3s”中代表什么?其他“ g3”机器则没有。
汉斯

@hans大概有点像“小”。该实例类型的CPU和RAM远远少于其他实例类型。
迈克尔·汉普顿

1
@MichaelHampton如何同时将它变小和变大?
卡巴斯德,

1
@kasperd您必须询问亚马逊。我也不理解他们的命名约定。
迈克尔·汉普顿
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.