网上查了下diff
的实现都是先求LCS,但是LCS复杂度我记的是$$O(N*M)$$的,我自己手动生成了100W个随机数字到两个文件里去,跑了下diff
发现大约5s就出结果了,很好奇Linux下的diff
是怎么实现?是优化了什么吗?
网上查了下diff
的实现都是先求LCS,但是LCS复杂度我记的是$$O(N*M)$$的,我自己手动生成了100W个随机数字到两个文件里去,跑了下diff
发现大约5s就出结果了,很好奇Linux下的diff
是怎么实现?是优化了什么吗?
7 回答5.2k 阅读
4 回答3.9k 阅读
2 回答5.9k 阅读✓ 已解决
1 回答2.7k 阅读✓ 已解决
2 回答2.5k 阅读✓ 已解决
1 回答2.3k 阅读✓ 已解决
2 回答748 阅读✓ 已解决
你可以到
gnu
官网去下载一份 diffutils 的源码研究,里面包含diff
,cmd
两个命令的实现。我粗略看过源码,因为
diff
和cmd
寻找差异都是以行为单位进行比对的,所以跟你想象的LCS
算法是有区别的。算法里的核心思路之一是哈希,每一行内容都被哈希成一个数值并放入一个开链式的哈希表中,比对时是从哈希表中快速找出另一个文件中匹配相等的行。
另外内部使用了
LCS
算法的变体,如果没有指定--minimal
,它查找到的结果是接近最优。官方文档里的复杂度介绍:当差异非常小时,这里算法的复杂度接近O(N),并且N为行的数量。执行上,几乎是仅对两个文件扫描一遍的速度,因为从磁盘读文件的时间比往往计算多。