我有FILE_A有30万行,而FILE_B有3000万行。我创建了一个Bash脚本,将FILE_A中的每一行都移到FILE_B中,并将grep的结果写入新文件。
整个过程耗时超过5个小时。
如何提高脚本的性能?
我正在使用grep -F -m 1
grep命令。FILE_A看起来像这样:
123456789
123455321
FILE_B是这样的:
123456789,123456789,730025400149993,
123455321,123455321,730025400126097,
因此,对于Bash,我有一个while
循环,可以在FILE_A中选择下一行,然后在FILE_B中进行抓取。在FILE_B中找到该模式后,我将其写入文件result.txt。
while read -r line; do
grep -F -m1 $line 30MFile
done < 300KFile