我正在运行由GPU训练的深度学习神经网络。现在,我想将此部署到多个主机以进行推断。问题是什么条件决定我应该使用GPU还是CPU进行推理?
在下面的评论中添加更多详细信息。
我对此并不陌生,因此非常感谢您的指导。
内存:GPU是K80
框架:Cuda和cuDNN
每个工作负载的数据大小:20G
计算要消耗的节点:每个作业一个,尽管要考虑扩展选项
费用:如果理由合理,我可以负担得起GPU选项
部署:在自己托管的裸机服务器上运行,而不是在云中。
现在,我在CPU上运行只是因为应用程序运行正常。但是出于这个原因,我不确定为什么还要考虑使用GPU。
为了就两种潜在方法之间的比较提供建议,对于其他人了解您的任务的一些细节将很有帮助。例如,您的数据大小是多少,GPU的存储容量是多少,您计划使用的计算节点数,还可以考虑使用哪种map-reduce框架。
—
Dynamic Stardust
@DynamicStardust ...以及费用。便宜的EC2 CPU节点还是昂贵的ECW GPU节点?这个问题太含糊了。
—
Spacedman