是否有可能凭经验估算出在普通消费级GPU上可训练的神经网络的大小?例如:
的步态(加固)的出现纸列车使用神经元的tanh激活的网络。它们具有3层NN,其中300,200,100单位用于Planar Walker。但是他们没有报告硬件和时间...
但是可以发展一条经验法则吗?同样仅基于当前的经验结果,例如:
使用S型激活的X单位可以在1060上每小时运行Y个学习迭代。
或使用激活功能a代替b会导致性能下降。
如果学生/研究人员/好奇心的人打算购买GPU来与这些网络一起玩耍,那么您如何决定获得的结果呢?1060显然是入门级预算选项,但是如何评估仅获得一台笨拙的上网本而不是构建高功率台式机并将节省的资金用于按需云基础架构,是否更明智。
问题的动机:我刚购买了1060,并且(聪明,以后问这个问题吧)想知道我是否应该保留$并创建一个Google Cloud帐户。而且,如果我可以在GPU上运行我的硕士论文模拟。