Questions tagged «columns»

当描述表或矩阵或垂直对齐的任何其他结构化数据集中的特定条目组的特定部分时,请使用此标记。

6
是否有用于输出制表符分隔列的简单命令?
例如,我有一个文件(由生成echo -e "var1\tvar2\t\var3\tvar4" > foo),其输出为: $ cat foo case elems meshing nlsys uniform 2350 0.076662 2.78 non-conformal 348 0.013332 0.55 scale 318 0.013333 0.44 smarter 504 0.016666 0.64 submodel 360 .009999 0.40 unstruct-quad 640 0.019999 0.80 unstruct-tri 1484 0.01 0.88 我更喜欢这样的输出(在这里我使用vim和:set tabstop=14): case elems meshing nlsys uniform 2350 0.076662 2.78 …


4
Bash Shell脚本输出对齐
我的剧本: date echo -e "${YELLOW}Network check${NC}\n\n" while read hostname do ping -c 1 "$hostname" > /dev/null 2>&1 && echo -e "Network $hostname : ${GREEN}Online${NC}" || echo -e "${GRAY}Network $hostname${NC} : ${RED}Offline${NC}" done < list.txt sleep 30 clear done 正在输出这样的信息: Network 10.x.xx.xxx : Online Network 10.x.xx.xxx : Offline Network 10.x.xx.xxx : …

5
将输出打印到3个单独的列
MYPATH=/var/www/html/error_logs/ TOTALFILE=$(ls $MYPATH* | wc -l) FILETIME=$(stat --format=%y $MYPATH* | head -5 | cut -d'.' -f1) FILE=$(ls -1tcr $MYPATH* | head -5 | rev | cut -d/ -f1 | rev) TOPLINE=$(head -1 $MYPATH* | grep -Po '".*?"' | head -5) 我如何优雅地将这5个文件信息打印到带有标题的列中? FILE CREATED TIME | FILE NAME | ERROR HEADER …

5
如何使用cut分隔多个空格?
我想获得此示例的最后一列: [ 3] 1.0- 2.0 sec 1.00 MBytes 8.39 Mbits/sec [ 3] 2.0- 3.0 sec 768 KBytes 6.29 Mbits/sec [ 3] 3.0- 4.0 sec 512 KBytes 4.19 Mbits/sec [ 3] 4.0- 5.0 sec 256 KBytes 2.10 Mbits/sec ... 如果我用 cut -d\ -f 13 我懂了 Mbits/sec 6.29 4.19 2.10 因为有时它们之间还有其他空格。

4
将长输出分成两列
是否有一个简单的实用程序或脚本来对我的一个脚本的输出进行列化?我有某种形式的数据: A aldkhasdfljhaf B klajsdfhalsdfh C salkjsdjkladdag D lseuiorlhisnflkc E sdjklfhnslkdfhn F kjhnakjshddnaskjdh 但是如果这变成两个长,则以以下形式写入数据(仍然按垂直顺序排列): A aldkhasdfljhaf D lseuiorlhisnflkc B klajsdfhalsdfh E sdjklfhnslkdfhn C salkjsdjkladdag F kjhnakjshddnaskjdh 通过阅读手册页,我认为这column不适合,但我不确定。拆分表格很容易: A B C D E F 通过仅\n每隔两行打印一次(我当前脚本执行的操作)。有任何想法吗?谢谢!

9
转置行和列
我有一个带有以下内容的文件。 title1:A1 title2:A2 title3:A3 title4:A4 title5:A5 title1:B1 title2:B2 title3:B3 title4:B4 title5:B5 title1:C1 title2:C2 title3:C3 title4:C4 title5:C5 title1:D1 title2:D2 title3:D3 title4:D4 title5:D5 我该如何实现? title1 title2 title3 title4 A1 A2 A3 A4 B1 B2 B3 B4 C1 C2 C3 C4 D1 D2 D3 D4


5
合并大量文件
我有±10,000个文件(res.1- res.10000),它们全部由一列和相等数量的行组成。本质上,我想要的是简单;将所有文件按列合并到一个新文件中final.res。我尝试使用: paste res.* 但是(尽管这似乎对结果文件的一小部分有用,但是在整个集合上执行时会出现以下错误:Too many open files。 必须有一种“简便”的方法来完成此操作,但是不幸的是,我对UNIX还是很陌生。提前致谢! PS:让您大致了解一下(我的一个)数据文件: 0.5 0.5 0.03825 0.5 10211.0457 10227.8469 -5102.5228 0.0742 3.0944 ...

5
从文本文件中剪切第2列
我的文本文件没有分隔符来指定分隔符而只是空格,我如何切出第2列以输出文件, 39 207 City and County of San Francisc REJECTED MAT = 0 78 412 Cases and materials on corporat REJECTED MAT = 0 82 431 The preparation of contracts an REJECTED MAT = 0 所以我需要的输出是 207 412 432


2
在ASCII文件中对齐列
我有一个看起来像他的文本文件: #c1 c2 c3 c4 c5 c6 c7 c8 c9 c10 c11 c12 c13 4599 995,274 2523,658 264,1417170 -33,6000 -0,3600 0,0202 0,0069 0,0227 10,1041 0,0169 0,2817 0,0239 6173 1552,290 1595,696 264,0603912 -33,4880 0,4374 0,0287 1,8123 0,0385 10,1289 0,0292 2,8445 0,0366 6456 1658,630 1529,292 264,0449377 -33,4800 0,0109 0,0234 1,0955 0,0296 10,5032 …

8
交换无数列
我有一个带有列的文件。参见以下示例: a b c ... z 1 2 3 ... 26 我想交换所有列,其中第一列变成最后一列,第二列变成最后一列...等等。 z y x ... a 26 25 24 ... 1 是否有一个衬板(awk或sed)做到这一点? 我知道awk只有几个列时可以使用,但是我希望能够对具有数千个列的文件执行此操作。 tac做到完美的线条。 我想我正在寻找对应的列。 rev 不适用于我,因为它还会交换列中的内容。

6
更好的粘贴命令
我有以下两个文件(我用点填充了行,因此文件中的每一行都具有相同的宽度,并将file1设置为大写,以使其更加清晰)。 contents of file1: ETIAM...... SED........ MAECENAS... DONEC...... SUSPENDISSE contents of file2 Lorem.... Proin.... Nunc..... Quisque.. Aenean... Nam...... Vivamus.. Curabitur Nullam... 请注意,file2比file1长。 当我运行此命令时: paste file1 file2 我得到这个输出 ETIAM...... Lorem.... SED........ Proin.... MAECENAS... Nunc..... DONEC...... Quisque.. SUSPENDISSE Aenean... Nam...... Vivamus.. Curabitur Nullam... 我要怎么做才能使输出如下? ETIAM...... Lorem.... SED........ Proin.... MAECENAS... Nunc..... DONEC...... Quisque.. …

1
将文本格式化为列
我有一个两列的文件,如下所示(示例): 文件1: John 1 Peter 2 Michael Rod 3 Su 7 Louise 9 我需要格式化它,我的预期输出应该是: 文件1: John 1 Peter 2 Michael Rod 3 Su 7 Louise 9

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.