uniq的坑坑
很久没有做过文本统计之类的操作了,今天有点任务弄一下,幸亏机智的我列出了全部看了一遍,发现uniq的时候还是有重复的,然后总结了一下
假如我有1.txt这个文本:
10.0.0.1 10.0.0.1 10.0.0.5 10.0.0.1
执行操作,cat 1.txt |uniq,得到的结果是:
10.0.0.1 10.0.0.5 10.0.0.1
uniq不是去重吗?为什么还是有重复的呢,当时一时半会儿也没想起来,后来把所有的数据列出来,对比发现规律了,只有对连续的重复的时候,才去重
也就是uniq只有对连续的重复的行去重,想要对所有的去重的话,就只有先用sort排序了
cat test |sort|uniq 10.0.0.1 10.0.0.5
还有就是不能对自己太过于自信了,认为这几个操作很熟练了,就执行完不检查,直接给结果;做任何事情可以慢一点,去检查一下结果,要做到perfect
作者:李先生
-------------------------------------------
个性签名:在平凡中坚持前行,总有一天会遇见不一样的自己!
如果觉得这篇文章对你有小小的帮助的话,记得在右下角点个“推荐”哦,博主在此感谢!
万水千山总是情,打赏一分行不行,所以如果你心情还比较高兴,也是可以扫码打赏博主,哈哈哈(っ•̀ω•́)っ✎⁾⁾!
微信公众号 微信打赏 支付宝打赏
posted on 2017-05-27 15:57 Captain_Li 阅读(424) 评论(0) 编辑 收藏 举报