闻人莹华 发表于 2025-6-4 08:22:54

Linux运维必备:sort 命令快速上手指南

作为运维工程师,处理日志、分析数据是家常便饭。sort命令是Linux中高效整理文本的神器,能快速对文件内容排序、去重、统计。本文用最简洁的方式,帮你掌握sort的核心用法。
一、基础排序:秒杀杂乱文本

# 默认按字典序升序排列(文件/输入流)
sort filename.txt

# 示例:对日志时间排序(假设第一列为时间)
sort /var/log/nginx/access.log二、实用参数:精准控制排序


[*]按数值排序
处理数字时,务必用-n,避免"10"排在"2"后面!
sort -n numbers.txt
[*]逆序排列
-r实现从大到小或从Z到A:
sort -nr large_numbers.txt# 数值逆序
[*]按指定列排序
用-k选择列,-t指定分隔符(如逗号、冒号):
# 按第2列(数值)排序CSV文件
sort -t',' -k2n data.csv
[*]去重
-u快速清理重复行(需先排序):
sort -u ips.txt > unique_ips.txt
[*]忽略大小写
-f让"Apple"和"apple"视为相同:
sort -f mixed_case.txt
三、运维实战场景

1. 统计日志IP访问频率
cat access.log | awk '{print $1}' | sort | uniq -c | sort -nr

[*]步骤拆解:

[*]awk提取IP列
[*]sort排序以便uniq统计
[*]uniq -c计数
[*]sort -nr按访问量倒序

2. 按内存占用排序进程
ps aux --sort=-%mem | head -n 10

[*]--sort=-%mem等价于sort -k4nr(按第4列内存倒序)
3. 合并多个已排序文件
sort -m file1.txt file2.txt > merged.txt

[*]-m(merge)效率远高于重新排序大文件
四、避坑指南


[*]性能优化:
处理超大文件时,可用-T指定临时目录(避免默认分区空间不足):
sort -T /mnt/big_disk/tmp/ huge_file.txt
[*]语言环境:
非英文排序异常时,设置LC_ALL=C禁用本地化规则:
LC_ALL=C sort file.txt
[*]稳定排序:
若需保留等值行的原始顺序,加-s(stable sort)。
五、总结

sort + awk/uniq等命令组合,是运维分析数据的瑞士军刀。掌握核心参数:
-n(数值)、-k(列)、-t(分隔符)、-r(逆序)、-u(去重),即可应对90%的排序需求。
记住: 处理数据前,先用head或sample.txt测试命令,避免直接操作大文件翻车!

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: Linux运维必备:sort 命令快速上手指南