我很想知道其中的一些(以及一些替代方法)如何在一个相当大的文件(163MiB
,IP
每行一个,〜1300万行)下快速运行:
wc -l < iplist
13144256
结果(sync; echo 3 > /proc/sys/vm/drop_caches
在每个命令之后;在几个小时之后,我以相反的顺序重复了测试,但是差异可以忽略不计;还请注意,我正在使用gnu sed
):
steeldriver:
非常慢。经过两分钟的等待后中止了...所以没有结果。
cuonglm:
awk 'FNR!=1{print l}{l=$0};END{ORS="";print l}' ORS=' | ' iplist
real 0m3.672s
perl -pe 's/\n/ | / unless eof' iplist
real 0m12.444s
mikeserv:
paste -d\ /dev/null iplist /dev/null | paste -sd\| -
real 0m0.983s
jthill:
sed 'H;1h;$!d;x;s/\n/ | /g' iplist
real 0m4.903s
阿维纳什·拉吉(Avinash Raj):
time python2.7 -c'
import sys
with open(sys.argv[1]) as f:
print " | ".join(line.strip() for line in f)' iplist
real 0m3.434s
和
val0x00ff:
while read -r ip; do printf '%s | ' "$ip"; done < iplist
real 3m4.321s
这意味着184.321s
。毫不奇怪,这比mikeserv的解决方案慢200倍。
这是使用
awk的其他一些方法:
awk '$1=$1' RS= OFS=' | ' iplist
real 0m4.543s
awk '{printf "%s%s",sep,$0,sep=" | "} END {print ""}' iplist
real 0m5.511s
perl:
perl -ple '$\=eof()?"\n":" | "' iplist
real 0m9.646s
xargs:
xargs <iplist printf ' | %s' | cut -c4-
real 0m6.326s
head + paste + tr + cat的组合:
{ head -n -1 | paste -d' |' - /dev/null /dev/null | tr \\n \ ; cat ; } <iplist
real 0m0.991s
如果您有GNU coreutils
,并且您的IP列表不是很庞大(比如说最多50000个IP),也可以使用以下方法pr
:
pr -$(wc -l infile) -tJS' | ' -W1000000 infile >outfile
哪里
-$(wc -l infile) # no. of columns (= with no. of lines in your file)
-t # omit page headers and trailers
-J # merge lines
-S' | ' # separate columns by STRING
-W1000000 # set page width
例如6行文件:
134.28.128.0
111.245.28.0
109.245.24.0
128.27.88.0
122.245.48.0
103.44.204.0
命令:
pr -$(wc -l <infile) -tJS' | ' -W1000 infile
输出:
134.28.128.0 | 111.245.28.0 | 109.245.24.0 | 128.27.88.0 | 122.245.48.0 | 103.44.204.0
tr
换行符添加到|
管道中?喜欢<ipfile tr \\n \| >outfile
吗?