我知道与
dd if=/dev/urandom of=/dev/sdX bs=1M count=hdd_size_in_MB
您可以用随机数据擦除整个磁盘。但是urandom很慢。所以我想知道是否可以只创建 100MB-1000MB 的随机数据存储在 RAM 中并在整个磁盘上多次写入,而不是创建 TB 的随机数据,这非常占用 CPU?
我该怎么做?
我知道与
dd if=/dev/urandom of=/dev/sdX bs=1M count=hdd_size_in_MB
您可以用随机数据擦除整个磁盘。但是urandom很慢。所以我想知道是否可以只创建 100MB-1000MB 的随机数据存储在 RAM 中并在整个磁盘上多次写入,而不是创建 TB 的随机数据,这非常占用 CPU?
我该怎么做?
我知道
awk '!seen[$0]++' filename > output.txt
可以从文本文件中删除所有重复项。但是我如何获取已删除行的列表,以便使用此信息删除另一个文件中的相同行。
我需要这个,因为我想删除用一种语言编写的大型文本文件中的所有重复项,然后使用该语言的翻译删除文件中的相同行,而不会丢失翻译的匹配。
为了更清楚:(文件 1)
line A
line B
line A
line C
...
(文件 2):
line 1
line 2
line 3
line 4
...
从文件 1 中删除“line A”并从文件 2 中删除“line 3”。需要翻译:
line A -> line 1
line B -> line 2
line C -> line 4
...
文件 1B(已删除重复项)将如下所示:
line A
line B
line C
...
文件 2B(已删除重复项)将如下所示:
line 1
line 2
line 4
...