SSDT 如何处理Data Flow
任务的批处理?
我正在使用 SSDT 将大约 1GB 的 CSV 解析到 SQL Server 中。
在数据流中有一个Flat File
源,它转到 OLE DB 目标(临时表)。然后使用 SQL 任务执行 SP。
正在解析的 CSV 包含一个汇总表和一个带有对该汇总表的外键引用的子表。因此,CSV 包含汇总表的重复 ID(因此每个子行有一行)。如果要将单个摘要 ID 拆分为两个批次,那么我会丢失数据 - SP 会执行类似“从暂存 ID 的子表中删除,然后从暂存中重新插入到子表中”之类的操作。以前我们必须这样做,因为供应商没有为子数据导出唯一 ID。他们现在,所以我可以使用合并语句。
但。我仍然想知道Data Flow
任务是否是批处理的,如果是,如何处理?