我已经开始使用 QueryStore 来监控我的应用程序,我注意到的一件事是,对于我以为的简单操作,内存使用量却出乎意料地高:
这意味着每次执行该语句时都会使用近 600MB 的 RAM?
该时间范围内每次执行的 RowCount 都远小于 100。该语句本身每 5 秒运行一次。
该表已分区并基于列存储索引,没有其他索引或主键/标识,并且有大约 750k 行:
CREATE TABLE [DataLink].[LogEntry](
[AppInstanceId] [bigint] NOT NULL,
[LoggedOnUtc] [datetime2](7) NOT NULL,
[CategoryName] [nvarchar](256) NOT NULL,
[EventCode] [int] NOT NULL,
[EventName] [nvarchar](256) NULL,
[LogLevel] [int] NOT NULL,
[ScopeJson] [nvarchar](max) NULL,
[StateJson] [nvarchar](max) NULL,
[ExceptionJson] [nvarchar](max) NULL,
[Message] [nvarchar](max) NULL
) ON [PSCH_Logging_DataLink_LogEntry_Daily7Of9]([LoggedOnUtc])
CREATE CLUSTERED COLUMNSTORE INDEX [CIX_LogEntry]
ON [DataLink].[LogEntry] WITH (DROP_EXISTING = OFF, COMPRESSION_DELAY = 0, DATA_COMPRESSION = COLUMNSTORE)
ON [PSCH_Logging_DataLink_LogEntry_Daily7Of9]([LoggedOnUtc])
触发插入的代码:
using var conn = connInfo.Main.GetConnection(DatabaseLoginType.User);
await conn.OpenAsync(ct).CAf();
using var sqlBulkCopy = new SqlBulkCopy((SqlConnection)conn, SqlBulkCopyOptions.CheckConstraints | SqlBulkCopyOptions.FireTriggers, null);
foreach(var toWriteItemGroup in toWriteItems.GroupBy(x => x.SchemaName)) {
...
dataReader.Init(toWriteItemGroup, tableInfo.ColumnMappings.Length);
sqlBulkCopy.DestinationTableName = $"{schemaName}.LogEntry";
sqlBulkCopy.ColumnMappings.Clear();
for(int i = 0; i < tableInfo.ColumnMappings.Length; i++) sqlBulkCopy.ColumnMappings.Add(i, tableInfo.ColumnMappings[i]);
await sqlBulkCopy.WriteToServerAsync(dataReader, ct).CAf();
...
}
知道为什么内存使用率这么高以及我该怎么做才能解决这个问题?
编辑4
我通过更改和手动编译 Microsoft.Data.SqlClient 进行了一些测试。我所做的更改包括将 ROWS_PER_BATCH 和/或 KILOBYTES_PER_BATCH 添加到“insert bulk”语句的 with 选项中。所有选项都没有改变使用的内存量,但前者改变了行数估计:https://www.brentozar.com/pastetheplan/
?id=HkKjc9HIC 似乎无法针对低行数优化“insert bulk”。
编辑3
这是一个简短的示例,我可以通过它重现该问题。
它包含一个脚本“Script.sql”,需要先执行该脚本来设置表并添加一些数据。之后使用“dotnet run”运行该程序(或使用 IDE)。
由于我无法在此处上传文件,因此我已将其上传到 github gist:https://gist.github.com/DvdKhl/d042ed05e3237136265295cb39ecb4f4
该脚本将:
- 创建一个视图,显示表的 PartitionInfo
- 创建(或重新创建)表及其配置
- 插入 700k 行(每个分区 100k)
- 重建索引
- 输出分区信息
- 注释掉的是
- 事件会话(扩展事件)捕获查询计划
- 另一个插入语句
- 清理
该计划将:
- 在“localhost”上为数据库“main”打开一个连接
- 创建一个虚拟数据读取器(更改计数以更改插入的行数)
- 像上面一样设置 SqlBulkCopy
- 调用 WriteToServerAsync 插入行
这导致以下查询计划:https://www.brentozar.com/pastetheplan/? id=B1v_8bGLC
编辑2
按照 Denis Rubashkin 的建议我设置了 BatchSize 和顺序提示:
sqlBulkCopy.BatchSize = toWriteItemGroup.Count();
sqlBulkCopy.ColumnOrderHints.Add("LoggedOnUtc", SortOrder.Ascending);
BatchSize 似乎没有改变任何东西(估计值保持不变)。
看起来 ROWS_PER_BATCH 未被使用,尽管在代码中设置了 sqlBulkCopy.BatchSize,这可能是主要问题。
添加 Order 提示后,查询不会显示在 QueryStore 中。
但是使用扩展事件获取查询计划会显示“过度授权”警告。所以我不确定这是否有帮助。
KILOBYTES_PER_BATCH 选项看起来很有趣,但我似乎无法在 C# 代码中设置它。
WithOrderHint / WithoutOrderHint(不同的表,但问题完全相同)
编辑:
查询计划:https://www.brentozar.com/pastetheplan/? id=SJGpBktH0