我试图从访问具有约 2.5 亿条记录的表的查询中获得更多性能。根据我对实际(未估计)执行计划的阅读,第一个瓶颈是如下查询:
select
b.stuff,
a.added,
a.value
from
dbo.hugetable a
inner join
#smalltable b on a.fk = b.pk
where
a.added between @start and @end;
有关所涉及的表和索引的定义,请参阅下文。
执行计划表明在#smalltable 上使用了嵌套循环,并且对hugetable 的索引扫描被执行了480 次(对于#smalltable 中的每一行)。这对我来说似乎倒退了,所以我试图强制使用合并连接:
select
b.stuff,
a.added,
a.value
from
dbo.hugetable a with(index = ix_hugetable)
inner merge join
#smalltable b with(index(1)) on a.fk = b.pk
where
a.added between @start and @end;
有问题的索引(完整定义见下文)涵盖列fk(连接谓词)、添加(在 where 子句中使用)和id(无用)按升序排列,并包括value。
但是,当我这样做时,查询从 2 1/2 分钟到超过 9 分钟。我希望提示会强制执行更有效的连接,该连接只对每个表执行一次传递,但显然不是。
欢迎任何指导。如有需要,提供额外信息。
更新 (2011/06/02)
重新组织表上的索引后,我在性能上取得了显着进步,但是在汇总巨大表中的数据时遇到了新的障碍。结果是按月汇总,目前如下所示:
select
b.stuff,
datediff(month, 0, a.added),
count(a.value),
sum(case when a.value > 0 else 1 end) -- this triples the running time!
from
dbo.hugetable a
inner join
#smalltable b on a.fk = b.pk
group by
b.stuff,
datediff(month, 0, a.added);
目前,hugetable有一个聚集索引pk_hugetable (added, fk)
(主键),一个非聚集索引则相反ix_hugetable (fk, added)
。
如果没有上面的第 4 列,优化器像以前一样使用嵌套循环连接,使用 #smalltable 作为外部输入,使用非聚集索引查找作为内部循环(再次执行 480 次)。我担心的是估计行(12,958.4)和实际行(74,668,468)之间的差异。这些搜索的相对成本为 45%。然而,运行时间不到一分钟。
对于第 4 列,运行时间达到 4 分钟。这次它以相同的相对成本 (45%) 搜索聚集索引(2 次执行),通过哈希匹配 (30%) 进行聚合,然后在 #smalltable (0%) 上执行哈希连接。
我不确定我的下一步行动。我担心的是日期范围搜索和连接谓词都不能得到保证,甚至可能会大大减少结果集。在大多数情况下,日期范围只会修剪 10-15% 的记录,而fk上的内部连接可能会过滤掉 20-30% 的记录。
根据 Will A 的要求,结果如下sp_spaceused
:
name | rows | reserved | data | index_size | unused
hugetable | 261774373 | 93552920 KB | 18373816 KB | 75167432 KB | 11672 KB
#smalltable定义为:
create table #endpoints (
pk uniqueidentifier primary key clustered,
stuff varchar(6) null
);
而dbo.hugetable被定义为:
create table dbo.hugetable (
id uniqueidentifier not null,
fk uniqueidentifier not null,
added datetime not null,
value decimal(13, 3) not null,
constraint pk_hugetable primary key clustered (
fk asc,
added asc,
id asc
)
with (
pad_index = off, statistics_norecompute = off,
ignore_dup_key = off, allow_row_locks = on,
allow_page_locks = on
)
on [primary]
)
on [primary];
定义了以下索引:
create nonclustered index ix_hugetable on dbo.hugetable (
fk asc, added asc, id asc
) include(value) with (
pad_index = off, statistics_norecompute = off,
sort_in_tempdb = off, ignore_dup_key = off,
drop_existing = off, online = off,
allow_row_locks = on, allow_page_locks = on
)
on [primary];
id字段是多余的,这是以前的 DBA 的产物,他坚持认为所有地方的所有表都应该有一个 GUID,没有例外。
你
ix_hugetable
看起来很没用,因为:另外: - 添加或 fk 应该是第一个 - ID 是第一个 = 没多大用处
尝试将集群键更改为
(added, fk, id)
并删除ix_hugetable
。你已经尝试过了(fk, added, id)
。如果不出意外,您将节省大量磁盘空间和索引维护另一种选择可能是尝试使用表顺序两种方式的 FORCE ORDER 提示,而没有 JOIN/INDEX 提示。我尽量不亲自使用 JOIN/INDEX 提示,因为您删除了优化器的选项。许多年前,有人告诉我(与 SQL Guru 的研讨会),当您有大表 JOIN 小表时,FORCE ORDER 提示可以提供帮助:7 年后的 YMMV ......
哦,让我们知道 DBA 住在哪里,这样我们就可以安排一些打击乐调整
编辑,6 月 2 日更新后
第 4 列不是非聚集索引的一部分,因此它使用聚集索引。
尝试将 NC 索引更改为包含值列,这样它就不必访问聚集索引的值列
注意:如果值不可为空,则它与
COUNT(*)
语义相同。但是对于 SUM 它需要实际值,而不是存在。例如,如果您更改
COUNT(value)
为COUNT(DISTINCT value)
不更改索引,它应该再次中断查询,因为它必须将值作为值而不是作为存在来处理。查询需要 3 列:added、fk、value。前 2 个被过滤/连接,关键列也是如此。value 只是被使用,所以可以被包含在内。覆盖索引的经典用法。
hugetable
仅在added
列上定义索引。数据库将仅在列列表的最右侧使用多部分(多列)索引,因为它具有从左侧计数的值。您的查询未
fk
在第一个查询的 where 子句中指定,因此它忽略了索引。这是我希望查询优化器使用的顺序,假设循环连接是正确的选择。另一种方法是循环 250M 次并每次查找 #temp 表 - 这很可能需要数小时/数天。
您在 MERGE 连接中强制使用的索引几乎是250M 行 * '每行的大小' - 不小,至少几 GB。从
sp_spaceused
输出“几 GB”来看可能是轻描淡写的 - MERGE 连接要求您遍历索引,这将是非常 I/O 密集型的。您的索引不正确。请参阅索引 dos 和 donts。
就目前情况而言,您唯一有用的索引是小表主键上的索引。因此,唯一合理的计划是对小表进行 seq 扫描,并在大表中嵌套循环。
尝试在
hugetable(added, fk)
. 这应该使规划器从大表中寻找适用的行,并将它们与小表嵌套循环或合并连接。