我在OpenStack云的8核Ubuntu 12.04 VM上运行了TileMill / PostGIS堆栈。这是对非常相似的系统的重建,该系统上周在非常相似的硬件(相同的云,但我认为是不同的物理硬件)上很好地运行。我试图完全按照原来的方式重建堆栈(使用我构建的一些脚本)。
一切都在运行,但是数据库执行查询的速度非常慢,最终以非常缓慢的切片生成来体现自己。一个示例查询(计算澳大利亚每个城镇半径内的酒吧数量),以前花费了大约10到20秒,现在却超过了10分钟:
explain (analyze, buffers) update places set pubs =
(select count(*) from planet_osm_point p where p.amenity = 'pub' and st_dwithin(p.way,places.way,scope)) +
(select count(*) from planet_osm_polygon p where p.amenity = 'pub' and st_dwithin(p.way,places.way,scope)) ;
Update on places (cost=0.00..948254806.93 rows=9037 width=160) (actual time=623321.558..623321.558 rows=0 loops=1)
Buffers: shared hit=132126300
-> Seq Scan on places (cost=0.00..948254806.93 rows=9037 width=160) (actual time=68.130..622931.130 rows=9037 loops=1)
Buffers: shared hit=132107781
SubPlan 1
-> Aggregate (cost=12.95..12.96 rows=1 width=0) (actual time=0.187..0.188 rows=1 loops=9037)
Buffers: shared hit=158171
-> Index Scan using planet_osm_point_index on planet_osm_point p (cost=0.00..12.94 rows=1 width=0) (actual time=0.163..0.179 rows=0 loops=9037)
Index Cond: (way && st_expand(places.way, (places.scope)::double precision))
Filter: ((amenity = 'pub'::text) AND (places.way && st_expand(way, (places.scope)::double precision)) AND _st_dwithin(way, places.way, (places.scope)::double precision))
Buffers: shared hit=158171
SubPlan 2
-> Aggregate (cost=104917.24..104917.25 rows=1 width=0) (actual time=68.727..68.728 rows=1 loops=9037)
Buffers: shared hit=131949237
-> Seq Scan on planet_osm_polygon p (cost=0.00..104917.24 rows=1 width=0) (actual time=68.138..68.716 rows=0 loops=9037)
Filter: ((amenity = 'pub'::text) AND (way && st_expand(places.way, (places.scope)::double precision)) AND (places.way && st_expand(way, (places.scope)::double precision)) AND _st_dwithin(way, places.way, (places.scope)::double precision))
Buffers: shared hit=131949237
Total runtime: 623321.801 ms
(我将这个查询作为一种症状,而不是直接解决要解决的问题。这个特定的查询大约一周才运行一次。)
该服务器具有32 GB的RAM,并且我已按以下方式配置Postgres(遵循在网上找到的建议):
shared_buffers = 8GB
autovacuum = on
effective_cache_size = 8GB
work_mem = 128MB
maintenance_work_mem = 64MB
wal_buffers = 1MB
checkpoint_segments = 10
iostat
显示未读取任何内容,写入了一点数据(不知道在哪里或为什么)以及95%的空闲CPU:
avg-cpu: %user %nice %system %iowait %steal %idle
5.40 0.00 0.00 0.11 0.00 94.49
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
vda 0.20 0.00 0.80 0 8
vdb 2.30 0.00 17.58 0 176
来自的样本输出vmstat
:
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
...
1 0 0 18329748 126108 12600436 0 0 0 18 148 140 5 0 95 0
2 0 0 18329400 126124 12600436 0 0 0 9 173 228 5 0 95 0
抱着稻草,我将Postgres数据目录从vda移到了vdb,但是当然没有什么区别。
所以我很茫然。为什么在不等待任何I / O时,Postgres只使用5%的可用CPU?我欢迎任何进一步调查的建议,其他工具,随机尝试。
更新资料
我对服务器进行了快照,并在同一云的不同部分(不同的可用性区域)启动了它。结果有点奇怪。vmstat
尽管实际的查询执行时间实际上是相同的(630秒与623),但该服务器上的CPU使用率却报告了12%的CPU使用率(我现在将其理解为8核VM上单个Postgres查询的期望值)。
我现在意识到,由于这个原因,这个特定的查询可能不是一个很好的示例:它只能使用一个核心,并且是一个update
(而tile渲染只是select
s)。
我也没有注意到explain
,显然planet_osm_polygon
没有使用索引。那很可能是原因,所以我接下来将继续探讨。
更新2
显然,问题似乎是/没有使用planet_osm_polygon索引。有两种(一种是由osm2pgsql创建的,一种是由我根据一些随机指南创建的):
CREATE INDEX idx_planet_osm_polygon_tags
ON planet_osm_polygon
USING gist
(tags);
CREATE INDEX planet_osm_polygon_pkey
ON planet_osm_polygon
USING btree
(osm_id);
我认为planet_osm_polygon和planet_osm_point的统计数据非常具有启发性:
planet_osm_polygon:
Sequential Scans 194204
Sequential Tuples Read 60981018608
Index Scans 1574
Index Tuples Fetched 0
planet_osm_point:
Sequential Scans 1142
Sequential Tuples Read 12960604
Index Scans 183454
Index Tuples Fetched 43427685
如果我没看错的话,Postgres已经搜索了planet_osm_polygon 1574次,但是却从未真正找到任何东西,因此进行了大量的蛮力搜索。
新问题:为什么?
谜团已揭开
多亏Frederik Ramm的回答,答案才变得非常简单:由于某种原因,没有空间索引。再生它们很简单:
create index planet_osm_polygon_polygon on planet_osm_polygon using gist(way);
create index planet_osm_polygon_point on planet_osm_point using gist(way);
现在运行该查询需要4.6秒。空间索引很重要!:)