正如其他人所解释的那样,它不仅复制了引用,而且还增加了对象内部的引用计数,因此可以访问对象,并且缓存起着作用。
在这里,我只想添加更多实验。与改组和未改组无关(访问一个元素可能会丢失高速缓存,但将以下元素放入高速缓存中以便它们被命中)。但是关于重复元素,由于该元素仍在高速缓存中,因此以后对同一元素的访问可能会命中高速缓存。
测试正常范围:
>>> from timeit import timeit
>>> a = range(10**7)
>>> [timeit(lambda: list(a), number=100) for _ in range(3)]
[5.1915339142808925, 5.1436351868889645, 5.18055115701749]
相同大小但一次又一次重复一个元素的列表会更快,因为它一直都在缓存中:
>>> a = [0] * 10**7
>>> [timeit(lambda: list(a), number=100) for _ in range(3)]
[4.125743135926939, 4.128927210087596, 4.0941229388550795]
它的数字似乎并不重要:
>>> a = [1234567] * 10**7
>>> [timeit(lambda: list(a), number=100) for _ in range(3)]
[4.124106479141709, 4.156590225249886, 4.219242600790949]
有趣的是,当我改为重复相同的两个或四个元素时,它变得更快:
>>> a = [0, 1] * (10**7 / 2)
>>> [timeit(lambda: list(a), number=100) for _ in range(3)]
[3.130586101607932, 3.1001001764957294, 3.1318465707127814]
>>> a = [0, 1, 2, 3] * (10**7 / 4)
>>> [timeit(lambda: list(a), number=100) for _ in range(3)]
[3.096105435911994, 3.127148431279352, 3.132872673690855]
我想有些事情不喜欢同一个计数器一直在增加。也许一些管道失速因为每次增加都必须等待之前增加的结果,但这是一个疯狂的猜测。
无论如何,尝试使用更多的重复元素:
from timeit import timeit
for e in range(26):
n = 2**e
a = range(n) * (2**25 / n)
times = [timeit(lambda: list(a), number=20) for _ in range(3)]
print '%8d ' % n, ' '.join('%.3f' % t for t in times), ' => ', sum(times) / 3
输出(第一列是不同元素的数量,每个元素我测试三次,然后取平均值):
1 2.871 2.828 2.835 => 2.84446732686
2 2.144 2.097 2.157 => 2.13275338734
4 2.129 2.297 2.247 => 2.22436720645
8 2.151 2.174 2.170 => 2.16477771575
16 2.164 2.159 2.167 => 2.16328197911
32 2.102 2.117 2.154 => 2.12437970598
64 2.145 2.133 2.126 => 2.13462250728
128 2.135 2.122 2.137 => 2.13145065221
256 2.136 2.124 2.140 => 2.13336283943
512 2.140 2.188 2.179 => 2.1688431668
1024 2.162 2.158 2.167 => 2.16208440826
2048 2.207 2.176 2.213 => 2.19829998424
4096 2.180 2.196 2.202 => 2.19291917834
8192 2.173 2.215 2.188 => 2.19207065277
16384 2.258 2.232 2.249 => 2.24609975704
32768 2.262 2.251 2.274 => 2.26239771771
65536 2.298 2.264 2.246 => 2.26917420394
131072 2.285 2.266 2.313 => 2.28767871168
262144 2.351 2.333 2.366 => 2.35030805124
524288 2.932 2.816 2.834 => 2.86047313113
1048576 3.312 3.343 3.326 => 3.32721167007
2097152 3.461 3.451 3.547 => 3.48622758473
4194304 3.479 3.503 3.547 => 3.50964316455
8388608 3.733 3.496 3.532 => 3.58716466865
16777216 3.583 3.522 3.569 => 3.55790996695
33554432 3.550 3.556 3.512 => 3.53952594744
因此,从单个(重复)元素的大约2.8秒下降到2、4、8、16 ...个不同元素的大约2.2秒,并保持在大约2.2秒,直到成百上千个。我认为这使用了我的L2缓存(4×256 KB,我有i7-6700)。
然后经过几步,时间最多达到3.5秒。我认为这会混合使用我的L2缓存和我的L3缓存(8 MB),直到“用尽”为止。
最终,它停留在3.5秒左右,因为我的缓存不再对重复的元素有所帮助。