您的位置:首页 > 其它

011-文本处理工具

2020-06-06 06:25 127 查看

cat -b acl.txt 删除空行标注行号;
cat -n acl.txt 统计所有行;
cat -ns acl.txt 压缩空行,跟整体保持一致;
cat -A acl.txt 显示所有控制符;
tac acl.txt 反向显示内容;cat颠倒了;
rev f2.log 在同一行里反写;
more anaconda-ks.cfg 分多行进行显示;
man帮助其实就是调用的less工具;

head有标准输入,可以跟在管道符后面;

使用date显示昨天日期;

cut -d: -f 1,5,7,8-10 /etc/passwd使用-d显示分割符;
who |cut -c1-9 取前面1-9个字符;
df |tr -s " " “:” |cut -d: -f5 |tr -d “%” 压缩中间多余空格,替换为:,然后通过cut取第5个field;最后删除%;
df | tr -s " " % | cut -d % -f5 直接转化成%号,然后取第5个;

ifconfig eno16777736 |head -n2 | tail -n1| tr -s " " : |cut -d: -f3 取ip地址的方法;
cut -d: -f1,3 --output-delimiter="=" /etc/passwd 更换默认:显示为=;

service iptables stop 关闭防火墙服务;
chkconfig iptables off 关闭防火墙下次开机启动;

cut -d" " -f1 /var/log/httpd/access_log 以空格为分隔符,取第一列;

paste f1 f2合并两个文件同行号的列到一行;
cat f1 f2 合并两个文件竖着合并;

wc=word count 统计文件信息;多少行,多少单词,多少字节;
cat /var/log/httpd/access_log |wc -l 统计日志记录了多少行;
pv=page view 这是统计网站常用的命令;

sort -t: -k3 /etc/passwd 按冒号,第三列进行排序;
df | tr -s " " % | cut -d% -f5 |sort -nr | head -n1 取出利用率最高的的数值;

cut -d " " -f1 /var/log/httpd/access_log |sort -u |wc -l 显示出不重复的访问ip的个数;
seq 1 20 | sort 默认排序是按照字符排序的;
seq 1 20 | sort -n 让序列按照数字大小排序;
seq 102 |sort -R |head -n1 随机显示数字;

uniq 把相邻的重复行合成一个行;
uniq -c 显示每行重复出现的次数;
uniq -u 仅显示不曾重复的行;

cut -d" " -f1 /var/log/httpd/access_log | sort | uniq -c | sort -nr |head
取文件的头一列,进行排序,然后显示重复出现次数,然后再按数字进行排序,取头10行;

last 显示最后登录的用户;
last | tr -s " " % | cut -d% -f3 |sort -nr | uniq -c | head -n3 显示登录次数较多的ip的前三个用户;

diff /etc/fstab fstab >diff.log比较两个文件不同;

如果不使用-b选项,那么在使用patch fstab2 diff.log的时候,新生成的文件也会命名成fstab2,在这种情况下,fstab虽然找回来了,但是命名成了fstab2,而恢复时的备份文件也丢了;所以要使用-b选项;

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: