您的位置:首页 > 运维架构 > Linux

Linux---Linux下文本文件合并和去除重复操作

2017-04-28 18:45 239 查看
来源:http://blog.csdn.net/hanglinux/article/details/50569011

Linux下处理文本的能力还是很强大的。
本文主要涉及到的命令为cat  uniq sort。

一 命令简单介绍

cat:将文本文件读出来 (concatenate files and print on the standard output)
文件去重合并的前提条件是先取出文件的内容。

uniq: 用来处理重复的行。(report or omit repeated lines)
Filter  adjacent matching lines from INPUT (or standard input), writing to OUTPUT (or  standard output).
从输入或者标准输入中过滤邻近的行,写到输出文件或者标准输出中。所以此命令只能处理邻近的行,
如果对两个文件进行合并去重,则必须首先对其排序,实现一一对应,否则去重失败。

sort:对文本的行进行排序(sort lines of text files)
Write sorted concatenation of all FILE(s) to standard output.
对于去重而言使用默认排序方式就可以了。

paste:merge lines of files
将按行将不同文件行信息放在一行。缺省情况下, p a s t e连接时,用空格或t a b键分隔新行中不同文本,除非指定- d选项,它将成为域分隔符。

二 实例应用:

1、 两个文件的交集、并集(前提条件:每个文件中不得有重复 也可以是多个文件)

(1)、取出两个文件的并集(重复的行只保留一份)

cat file1 file2 | sort | uniq > file3   

(2)、取出两个文件的交集(只留下同时存在于两个文件中的文件)

cat file1 file2 | sort | uniq -d > file3  

(3)、 删除交集,留下其他的行

cat file1 file2 | sort | uniq -u > file3  

2、两个文件合并

(1)、 一个文件在上,一个文件在下

cat file1 file2 > file3  

(2)、 一个文件在左,一个文件在右

paste file1 file2 > file3  

3、一个文件去掉重复的行

(1)、 重复的多行记为一行

sort file |uniq  

(2)、 重复的行全部去掉

sort file |uniq -u 

sort object_tmp.txt |uniq > /auto_cron/cron-running/dam/dictionary/object.txt
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: