语境:
出于好奇,我正在为我的应用程序进行负载测试。然后结果发生了很多并发插入。
在对 create-endpoint 进行负载测试后,我正在尝试对 Fetch 端点进行负载测试,包括测试分页。对于分页,我结合了两列,id(带有 UUID v4 的 PK)和 created_time。此外,我添加了一个索引以加快排序。我从这里开始关注这些解决方案。
问题:
由于数据是同时插入的,因此有几行具有相同的 created_time,在我的情况下,同一时间戳中最多 100(行)。
这是我的表模式,一个例子
BEGIN;
CREATE EXTENSION IF NOT EXISTS "uuid-ossp";
DROP TABLE IF EXISTS "payment_with_uuid";
CREATE TABLE "payment_with_uuid" (
id VARCHAR(255) PRIMARY KEY NOT NULL DEFAULT (uuid_generate_v4()),
amount integer NULL,
name varchar(255) default NULL,
created_time TIMESTAMPTZ NOT NULL DEFAULT (now() AT TIME ZONE 'utc')
);
CREATE INDEX idx_payment_pagination ON payment_with_uuid (created_time, id);
COMMIT;
这是我的查询,
SELECT * from payment_with_uuid ORDER BY created_time DESC, id DESC LIMIT 10;
它将返回 10 行付款,假设数据看起来像这样,并假设时间戳相同,直到第 100 行
+-------------------------------------+--------+------------+---------------------+
| id | amount | name | created_time |
+-------------------------------------+--------+------------+---------------------+
| ffffa567-e95a-4c8b-826c-e2be6acaeb6d| 32003 | Allistair | 2020-05-24 21:27:10 |
| ffff2dd6-3872-4acc-afec-7a568935f729| 32003 | James | 2020-05-24 21:27:10 |
| fffe3477-1710-45c4-b554-b539a9ee8fa7| 32003 | Kane | 2020-05-24 21:27:10 |
为了获取下一页,这是我的查询,
SELECT * FROM payment_with_uuid
WHERE
created_time <= '2020-05-24 21:27:10' :: timestamp
AND
id <'fffe3477-1710-45c4-b554-b539a9ee8fa7'
ORDER BY created_time DESC, id DESC LIMIT 10;
正因为如此,分页搞砸了,就像第一页上存在的一些记录一样,可能存在于第二、第三或任何页面上。有时记录会丢失。
问题和注意事项:
有没有办法以更优雅的方式做到这一点?
我知道使用自动增量可以解决这个问题,但是选择自动增量 ID 对我们来说不是一个选项,因为我们试图让微服务中的所有内容都保持一致,许多服务已经使用 UUID 作为 PK。
使用偏移量和限制也可以解决这个问题,但据我所知,这不是一个好习惯,因为本文解释了https://use-the-index-luke.com/no-offset
我正在使用 Postgres 11.4