我有一个非常大的表,其中包含 5 亿行和一个我将删除的 Text 列。在我的开发环境中,我已经删除了列并开始了回收过程,但我不确定“DBCC CLEANTABLE (MyDb,'dbo.LargeTbl, 100000)”语句上的批处理大小实际上是做什么的。
我尝试将其设置为 5,希望它检查前 5 行并结束。“DBCC CLEANTABLE (MyDb,'dbo.LargeTbl, 5)”花了 28 小时。所以我恢复了数据库,将其设置为 100,000,花了 4 个小时
实际问题:批处理大小是否告诉 dbcc cleantable 一次要执行多少行,并且一次连续运行 100K 直到它通过所有 500mil 行?或者一旦我运行了 100,000 行,我是否必须再次运行它,直到我完成所有 5 亿行?
在我的第二次测试中,(运行 100K 一次)我能够回收 30GB。然后我对所有索引运行索引重组并回收和额外的 60GB ..
除了armitage 的出色答案之外,您可能不需要在您的场景中使用 DBCC CLEANTABLE。
你说
Microsoft 文档中的最佳实践说:
似乎时间和空间是你最大的目标。通常重建索引比重组更快(但更耗费资源)。
当您在开发服务器上工作时。
只需重建索引,您将同时获得索引重组和 DBCC CLEANTABLE 的好处,而且可能更快。
注意Rebuild和Reorganize不是一回事:
根据Microsoft 文档,Batch Size 告诉 DBCC CleanTable 每个事务要处理的行数。这与 DBCC CleanTable 进程运行时 DBCC CleanTable 内部处理的行数有关。
通过使用文档中的示例并修改以添加一百万行,然后使用不同的批处理大小值(见下文)多次运行示例脚本,似乎指定小批处理大小会增加执行时间,因为 DBCC CleanTable 仅在运行在批量大小中指定的行数上。