awk基础-根据某字段去重
AI-摘要
KunKunYu GPT
AI初始化中...
介绍自己
生成本文简介
推荐相关文章
前往主页
前往tianli博客
awk基础-根据某字段去重
根据某字段去重
如下文件内容,去掉uid=xxx
重复的行。
2019-01-13_12:00_index?uid=123
2019-01-13_13:00_index?uid=123
2019-01-13_14:00_index?uid=333
2019-01-13_15:00_index?uid=9710
2019-01-14_12:00_index?uid=123
2019-01-14_13:00_index?uid=123
2019-01-15_14:00_index?uid=333
2019-01-16_15:00_index?uid=9710
awk命令:
awk -F"?" '!arr[$2]++{print}' a.txt
结果:
2019-01-13_12:00_index?uid=123
2019-01-13_14:00_index?uid=333
2019-01-13_15:00_index?uid=9710
这里先将字段分隔符FS
设置为?
,使得$2
就是要判断是否重复的字段。如果字段不重复,则arr[$2]++
返回值是0,但返回后arr[$2]
的值为1,如果字段重复再次出现,即重复,则arr[$2]++
返回1,并arr[$2]
的值为2。
所以,可通过!arr[$2]{print}
来输出只第一次出现的行,即重复行全部删除。
- 感谢你赐予我前进的力量
赞赏者名单
因为你们的支持让我意识到写文章的价值🙏
作者编辑不易,如有转载请注明出处。完整转载来自https://wangairui.com 网站名称:猫扑linux
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果