我的数据库中已经有几百万行。设计架构时,我不了解PostgreSQL UUID数据类型。
其中一张表具有1600万行(每个分片约350万至400万条记录),每天增长约50万条记录。如果需要,我仍然可以将生产系统停机几个小时。我将在一两个星期内没有这种奢侈。
我的问题是,这样做值得吗?我想知道JOIN的性能,磁盘空间的使用(完全gzip的转储为1.25 GiB),这种性质的事情。
表架构为:
# \d twitter_interactions
Table "public.twitter_interactions"
Column | Type | Modifiers
-------------------------+-----------------------------+-----------
interaction_id | character(36) | not null
status_text | character varying(1024) | not null
screen_name | character varying(40) | not null
twitter_user_id | bigint |
replying_to_screen_name | character varying(40) |
source | character varying(240) | not null
tweet_id | bigint | not null
created_at | timestamp without time zone | not null
Indexes:
"twitter_interactions_pkey" PRIMARY KEY, btree (interaction_id)
"twitter_interactions_tweet_id_key" UNIQUE, btree (tweet_id)
"index_twitter_interactions_on_created_at" btree (created_at)
"index_twitter_interactions_on_screen_name" btree (screen_name)
Triggers:
insert_twitter_interactions_trigger BEFORE INSERT ON twitter_interactions FOR EACH ROW EXECUTE PROCEDURE twitter_interactions_insert_trigger()
Number of child tables: 9 (Use \d+ to list them.)