我写了两个函数来回答七周内七个数据库中第 3 天的第一个作业问题。
创建一个存储过程,您可以在其中输入您喜欢的电影标题或演员姓名,它将根据演员出演的电影或类似类型的电影返回前五名建议。
我的第一次尝试是正确的,但速度很慢。返回结果最多可能需要 2000 毫秒。
CREATE OR REPLACE FUNCTION suggest_movies(IN query text, IN result_limit integer DEFAULT 5)
RETURNS TABLE(movie_id integer, title text) AS
$BODY$
WITH suggestions AS (
SELECT
actors.name AS entity_term,
movies.movie_id AS suggestion_id,
movies.title AS suggestion_title,
1 AS rank
FROM actors
INNER JOIN movies_actors ON (actors.actor_id = movies_actors.actor_id)
INNER JOIN movies ON (movies.movie_id = movies_actors.movie_id)
UNION ALL
SELECT
searches.title AS entity_term,
suggestions.movie_id AS suggestion_id,
suggestions.title AS suggestion_title,
RANK() OVER (PARTITION BY searches.movie_id ORDER BY cube_distance(searches.genre, suggestions.genre)) AS rank
FROM movies AS searches
INNER JOIN movies AS suggestions ON
(searches.movie_id <> suggestions.movie_id) AND
(cube_enlarge(searches.genre, 2, 18) @> suggestions.genre)
)
SELECT suggestion_id, suggestion_title
FROM suggestions
WHERE entity_term = query
ORDER BY rank, suggestion_id
LIMIT result_limit;
$BODY$
LANGUAGE sql;
我的第二次尝试是正确和快速的。我通过将过滤器从 CTE 向下推到联合的每个部分来优化它。
我从外部查询中删除了这一行:
WHERE entity_term = query
我将此行添加到第一个内部查询中:
WHERE actors.name = query
我将此行添加到第二个内部查询中:
WHERE movies.title = query
第二个函数需要大约 10 毫秒才能返回相同的结果。
除了函数定义之外,数据库中没有什么不同。
为什么 PostgreSQL 会为这两个逻辑上等价的查询产生如此不同的计划?
第一个函数的EXPLAIN ANALYZE
计划如下所示:
Limit (cost=7774.18..7774.19 rows=5 width=44) (actual time=1738.566..1738.567 rows=5 loops=1)
CTE suggestions
-> Append (cost=332.56..7337.19 rows=19350 width=285) (actual time=7.113..1577.823 rows=383024 loops=1)
-> Subquery Scan on "*SELECT* 1" (cost=332.56..996.80 rows=11168 width=33) (actual time=7.113..22.258 rows=11168 loops=1)
-> Hash Join (cost=332.56..885.12 rows=11168 width=33) (actual time=7.110..19.850 rows=11168 loops=1)
Hash Cond: (movies_actors.movie_id = movies.movie_id)
-> Hash Join (cost=143.19..514.27 rows=11168 width=18) (actual time=4.326..11.938 rows=11168 loops=1)
Hash Cond: (movies_actors.actor_id = actors.actor_id)
-> Seq Scan on movies_actors (cost=0.00..161.68 rows=11168 width=8) (actual time=0.013..1.648 rows=11168 loops=1)
-> Hash (cost=80.86..80.86 rows=4986 width=18) (actual time=4.296..4.296 rows=4986 loops=1)
Buckets: 1024 Batches: 1 Memory Usage: 252kB
-> Seq Scan on actors (cost=0.00..80.86 rows=4986 width=18) (actual time=0.009..1.681 rows=4986 loops=1)
-> Hash (cost=153.61..153.61 rows=2861 width=19) (actual time=2.768..2.768 rows=2861 loops=1)
Buckets: 1024 Batches: 1 Memory Usage: 146kB
-> Seq Scan on movies (cost=0.00..153.61 rows=2861 width=19) (actual time=0.003..1.197 rows=2861 loops=1)
-> Subquery Scan on "*SELECT* 2" (cost=6074.48..6340.40 rows=8182 width=630) (actual time=1231.324..1528.188 rows=371856 loops=1)
-> WindowAgg (cost=6074.48..6258.58 rows=8182 width=630) (actual time=1231.324..1492.106 rows=371856 loops=1)
-> Sort (cost=6074.48..6094.94 rows=8182 width=630) (actual time=1231.307..1282.550 rows=371856 loops=1)
Sort Key: searches.movie_id, (cube_distance(searches.genre, suggestions_1.genre))
Sort Method: external sort Disk: 21584kB
-> Nested Loop (cost=0.27..3246.72 rows=8182 width=630) (actual time=0.047..909.096 rows=371856 loops=1)
-> Seq Scan on movies searches (cost=0.00..153.61 rows=2861 width=315) (actual time=0.003..0.676 rows=2861 loops=1)
-> Index Scan using movies_genres_cube on movies suggestions_1 (cost=0.27..1.05 rows=3 width=315) (actual time=0.016..0.277 rows=130 loops=2861)
Index Cond: (cube_enlarge(searches.genre, 2::double precision, 18) @> genre)
Filter: (searches.movie_id <> movie_id)
Rows Removed by Filter: 1
-> Sort (cost=436.99..437.23 rows=97 width=44) (actual time=1738.565..1738.566 rows=5 loops=1)
Sort Key: suggestions.rank, suggestions.suggestion_id
Sort Method: top-N heapsort Memory: 25kB
-> CTE Scan on suggestions (cost=0.00..435.38 rows=97 width=44) (actual time=1281.905..1738.531 rows=43 loops=1)
Filter: (entity_term = 'Die Hard'::text)
Rows Removed by Filter: 382981
Total runtime: 1746.623 ms
第二个查询的EXPLAIN ANALYZE
计划如下所示:
Limit (cost=43.74..43.76 rows=5 width=44) (actual time=1.231..1.234 rows=5 loops=1)
CTE suggestions
-> Append (cost=4.86..43.58 rows=5 width=391) (actual time=1.029..1.141 rows=43 loops=1)
-> Subquery Scan on "*SELECT* 1" (cost=4.86..20.18 rows=2 width=33) (actual time=0.047..0.047 rows=0 loops=1)
-> Nested Loop (cost=4.86..20.16 rows=2 width=33) (actual time=0.047..0.047 rows=0 loops=1)
-> Nested Loop (cost=4.58..19.45 rows=2 width=18) (actual time=0.045..0.045 rows=0 loops=1)
-> Index Scan using actors_name on actors (cost=0.28..8.30 rows=1 width=18) (actual time=0.045..0.045 rows=0 loops=1)
Index Cond: (name = 'Die Hard'::text)
-> Bitmap Heap Scan on movies_actors (cost=4.30..11.13 rows=2 width=8) (never executed)
Recheck Cond: (actor_id = actors.actor_id)
-> Bitmap Index Scan on movies_actors_actor_id (cost=0.00..4.30 rows=2 width=0) (never executed)
Index Cond: (actor_id = actors.actor_id)
-> Index Scan using movies_pkey on movies (cost=0.28..0.35 rows=1 width=19) (never executed)
Index Cond: (movie_id = movies_actors.movie_id)
-> Subquery Scan on "*SELECT* 2" (cost=23.31..23.40 rows=3 width=630) (actual time=0.982..1.081 rows=43 loops=1)
-> WindowAgg (cost=23.31..23.37 rows=3 width=630) (actual time=0.982..1.064 rows=43 loops=1)
-> Sort (cost=23.31..23.31 rows=3 width=630) (actual time=0.963..0.971 rows=43 loops=1)
Sort Key: searches.movie_id, (cube_distance(searches.genre, suggestions_1.genre))
Sort Method: quicksort Memory: 28kB
-> Nested Loop (cost=4.58..23.28 rows=3 width=630) (actual time=0.808..0.916 rows=43 loops=1)
-> Index Scan using movies_title on movies searches (cost=0.28..8.30 rows=1 width=315) (actual time=0.025..0.027 rows=1 loops=1)
Index Cond: (title = 'Die Hard'::text)
-> Bitmap Heap Scan on movies suggestions_1 (cost=4.30..14.95 rows=3 width=315) (actual time=0.775..0.844 rows=43 loops=1)
Recheck Cond: (cube_enlarge(searches.genre, 2::double precision, 18) @> genre)
Filter: (searches.movie_id <> movie_id)
Rows Removed by Filter: 1
-> Bitmap Index Scan on movies_genres_cube (cost=0.00..4.29 rows=3 width=0) (actual time=0.750..0.750 rows=44 loops=1)
Index Cond: (cube_enlarge(searches.genre, 2::double precision, 18) @> genre)
-> Sort (cost=0.16..0.17 rows=5 width=44) (actual time=1.230..1.231 rows=5 loops=1)
Sort Key: suggestions.rank, suggestions.suggestion_id
Sort Method: top-N heapsort Memory: 25kB
-> CTE Scan on suggestions (cost=0.00..0.10 rows=5 width=44) (actual time=1.034..1.187 rows=43 loops=1)
Total runtime: 1.410 ms
CTE 没有自动谓词下推
PostgreSQL 9.3 不对 CTE 进行谓词下推。
执行谓词下推的优化器可以将 where 子句移动到内部查询中。目标是尽早过滤掉不相关的数据。只要新查询在逻辑上是等价的,引擎仍然会获取所有相关数据,因此会产生正确的结果,只是速度更快。
核心开发人员 Tom Lane 提到了在pgsql-performance 邮件列表上确定逻辑等价的困难。
优化器不区分只读 CTE 和可写 CTE,因此在考虑计划时过于保守。'fence' 处理阻止优化器在 CTE 中移动 where 子句,尽管我们可以看到这样做是安全的。
我们可以等待 PostgreSQL 团队改进 CTE 优化,但现在要获得良好的性能,你必须改变你的写作风格。
重写性能
这个问题已经展示了一种获得更好计划的方法。复制过滤条件本质上是硬编码谓词下推的效果。
在这两个计划中,引擎都将结果行复制到工作表中,以便对它们进行排序。工作表越大,查询越慢。
第一个计划将基表中的所有行复制到工作表并对其进行扫描以查找结果。为了让事情变得更慢,引擎必须扫描整个工作表,因为它没有索引。
这是一个荒谬的不必要的工作量。当基表中估计有 19350 行中只有大约 5 行匹配时,它会读取基表中的所有数据两次以找到答案。
第二个计划使用索引来查找匹配的行并将这些行复制到工作表中。该索引有效地为我们过滤了数据。
在SQL 的艺术第 85 页,Stéphane Faroult 提醒我们用户的期望。
第二个计划随心所欲,因此更有可能让您的用户满意。
重写以提高可维护性
新查询更难维护,因为您可以通过更改一个过滤器表达式而不是另一个来引入缺陷。
如果我们可以只编写一次并且仍然获得良好的性能,那不是很好吗?
我们可以。优化器对子查询进行谓词下推。
一个更简单的例子更容易解释。
这将创建两个表,每个表都有一个索引列。它们一起包含一百万
1
、一百万2
和一3
。3
您可以使用这些查询中的任何一个来找到针。CTE 的计划进展缓慢。该引擎扫描三个表并读取大约四百万行。它需要将近 1000 毫秒。
子查询的计划很快。引擎只是寻找每个索引。它需要不到一毫秒。
有关交互式版本,请参阅SQLFiddle 。
Postgres 12 中的计划相同
这个问题是关于 Postgres 9.3 的。五年后,那个版本已经过时了,但有什么变化呢?
PostgreSQL 12现在内联了这样的 CTE。