linux重复文件查找?

现场linux系统,数据量2P,好几个团队都在使用这些数据,几年下来存在大量重复数据,相同数据可能放在不同位置,或者修改啦一下文件属性,比如同一个数据,不同用户用不同软件对同一份数据进行打开阅读,导致文件部分属性修改,现在我的任务是查找这些重复数据出来,但是不直接删除,等数据所属用户确认后在进行删除。大家有什么好的软件或者脚本提供一个呢,谢谢

参与20

2同行回答

pysx0503pysx0503系统工程师第十区。散人
取自网络上的一个答案。你可以参考一下。不过这么大的数据量。文件查重应该缓慢。在工作生活当中,我们很可能会遇到查找重复文件的问题。比如博主我所在的汉化组就遇到过这样一个情况:从某游戏提取的游戏文本有重复的,我们希望找出所有重复的文本,让翻译只翻译其中一份,而其他...显示全部

取自网络上的一个答案。你可以参考一下。不过这么大的数据量。文件查重应该缓慢。
在工作生活当中,我们很可能会遇到查找重复文件的问题。比如博主我所在的汉化组就遇到过这样一个情况:从某游戏提取的游戏文本有重复的,我们希望找出所有重复的文本,让翻译只翻译其中一份,而其他的直接替换。那么这个问题该怎么做呢?当然方法多种多样,而且无论那种方法应该都不会太难,但博主我第一次遇到这个问题的时候第一反应是是用Linux的Shell脚本,所以文本介绍这种方式。

嘛,虽然文章分类标的是原创,但实际上核心技术是摘自下面这篇文章:http://www.tuicool.com/articles/7vyEZbF,而本文所做的也只是带着大家分析一下上文给出的方案。

先上代码:
[plain] view plain copy
find -not -empty -type f -printf "%s\n" | sort -rn |uniq -d | xargs -I{} -n1 find -type f -size {}c -print0 | xargs -0 md5sum | sort | uniq -w32 --all-repeated=separate | cut -b 36-

大家先cd到自己想要查找重复文件的文件夹,然后copy上面代码就可以了,系统会对当前文件夹及子文件夹内的所有文件进行查重。

下面分析一下上面的命令。
首先看第一句:
[plain] view plain copy
find -not -empty -type f -printf "%s\n"
find是查找命令;-not -empty是要寻找非空文件;-type f是指寻找常规文件;-printf “%s\n”比较具有迷惑性,这里的%s并非C语言中的输出字符串,它实际表示的是文件的大小,单位为bytes(不懂就man,man一下find,就可以看到了),\n是换行符。所以这句话的意思是输出所有非空文件的大小。

通过管道,上面的结果被传到第二句:
[plain] view plain copy
sort -rn
sort是排序,-n是指按大小排序,-r是指从大到小排序(逆序reverse)。

第三句:
[plain] view plain copy
uniq -d

uniq是把重复的只输出一次,而-d指只输出重复的部分(如9出现了5次,那么就输出1个9,而2只出现了1次,并非重复出现的数字,故不输出)。

第四句:
[plain] view plain copy
xargs -I{} -n1 find -type f -size {}c -print0
这一部分分两部分看,第一部分是xargs -I{} -n1,xargs命令将之前的结果转化为参数,供后面的find调用,其中-I{}是指把参数写成{},而-n1是指将之前的结果一个一个输入给下一个命令(-n8就是8个8个输入给下一句,不写-n就是把之前的结果一股脑的给下一句)。后半部分是find -type f -size {}c -print0,find指令我们前面见过,-size{}是指找出大小为{}bytes的文件,而-print0则是为了防止文件名里带空格而写的参数。

第五句:
[plain] view plain copy
xargs -0 md5sum

xargs我们之前说过,是将前面的结果转化为输入,那么这个-0又是什么意思?man一下xargs,我们看到-0表示读取参数的时候以null为分隔符读取,这也不难理解,毕竟null的二进制表示就是00。后面的md5sum是指计算输入的md5值。

第六句:sort是排序,这个我们前面也见过。

第七句:
[plain] view plain copy
uniq -w32 --all-repeated=separate
uniq -w32是指寻找前32个字符相同的行,原因在于md5值一定是32位的,而后面的--all-repeated=separate是指将重复的部分放在一类,分类输出。

第八句:
[plain] view plain copy
cut -b 36-
由于我们的结果带着md5值,不是很好看,所以我们截取md5值后面的部分,cut是文本处理函数,这里-b 36-是指只要每行36个字符之后的部分。

我们将上述每个命令用管道链接起来,存入result.txt:
[plain] view plain copy
find -not -empty -type f -printf "%s\n" | sort -rn |uniq -d | xargs -I{} -n1 find -type f -size {}c -print0 | xargs -0 md5sum | sort | uniq -w32 --all-repeated=separate | cut -b 36- >result.txt

虽然结果很好看,但是有一个问题,这是在Linux下很好看,实际上如果有朋友把输出文件放到Windows上,就会发现换行全没了,这是由于Linux下的换行是\n,而windows要求\n\r,为了解决这个问题,我们最后执行一条指令,将\n转换为\n\r:
[plain] view plain copy
cat result.txt | cut -c 36- | tr -s '\n'

收起
系统集成 · 2017-09-01
  • 这个显然不行哦,他是对比md5,你随便找一个T级别的数据试试,就知道要几天才能完成啦哦
    2017-09-04
y18511664518y18511664518技术总监长城超云
推荐一个工具 dupeguru_se,题主可以试试。显示全部

推荐一个工具 dupeguru_se,题主可以试试。

收起
金融其它 · 2017-09-01
  • 这个我百度到啦,但是他ubentu的现成的,redhat版本的我搞半天没搞明白怎么下载软件安装,英文太差啦,同时我也大概研究一下,他是基于md5的,不适合我的2pb哦。我现在是想的是写脚本对比文件大小和名字,不对比内容
    2017-09-05

提问者

zhaoyue6250
系统分析师四川鹏展科技有限公司
擅长领域: 服务器容器云计算

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2017-08-31
  • 关注会员:3 人
  • 问题浏览:3820
  • 最近回答:2017-09-01
  • X社区推广