当报告一种算法的算法复杂性时,人们假定底层计算是在某种近似现代CPU的抽象机器(例如RAM)上执行的。这种模型使我们能够报告算法的时间和空间复杂性。现在,随着GPGPU的普及,人们想知道是否存在众所周知的模型,其中也可以考虑功耗。
众所周知,GPU会消耗大量功率,并且某些指令会根据其复杂性和在复杂芯片上的位置而分为不同的功耗类别。因此,从能量的角度来看,指令不是单位(甚至是固定的)成本。一个简单的扩展将为操作成本分配权重,但是我正在寻找一个功能强大的模型,其中操作/指令可能会消耗非恒定单位的能量,例如多项式量(或更复杂的例如:自开始以来经过的时间的函数)的算法;或考虑到冷却系统发生故障的可能性,这将使芯片发热,并降低时钟频率等。)
是否存在可以纳入非平凡成本和错误的模型?