linux 60秒分析
这份清单适用于分析性能问题,并记录了笔者登录到性能不佳的Linux系统后最初60秒内通常会执行的操作。
- uptime
- dmesg | tail && cat /var/log/messages
- vmstat 1
- mpstat -P ALL 1
- pidstat 1
- iostat -xz 1
- free -m
- sar -n DEV 1
- sar -n tcp,ETCP 1
- sar -n SOCK 1 3
- top
uptime
uptime 命令用于显示系统已运行的时间,并提供系统负载平均值的信息。以下是 uptime 命令提供的信息解释:
┌──[liruilong@liruilongs.github.io]-[~]└─$man uptimeUPTIME(1) User Commands UPTIME(1)NAME uptime - Tell how long the system has been running.SYNOPSIS uptime [options]DESCRIPTION uptimegives a one line display of the following information.The current time, how long the system has been running, how many users are currently logged on, and the system load averages for the past 1, 5, and15min‐ utes. This is the same information contained in the header line displayed by w(1). Systemloadaveragesistheaveragenumber of processes that are either in a runnable or uninterruptable state.A process in a runnable state is either using the CPU or waiting to use the CPU.A processinunin‐ terruptablestate is waiting for some I/O access, eg waiting for disk.The averages are taken over the three time intervals.Load averages are not normalized for the number of CPUs in a system, so a load averageof1 means a single CPU system is loaded all the time while on a 4 CPU system it means it was idle 75% of the time. ......................................登录后复制
uptime 可以快速查看当前系统时间以及运行时间,总的登录用户, 以及平均负载:
- 当前时间:显示执行uptime命令时的系统当前时间。
- 系统运行时间:显示系统自上次引导或重新启动以来的运行时间。以”X天X小时X分钟”的格式显示。
- 用户数量:表示当前登录到系统的用户数量。
- 系统负载平均值:显示过去1分钟、5分钟和15分钟的系统负载平均值。负载平均值代表处于运行状态或等待运行状态的平均进程数量。它指示系统的活动水平和资源利用程度。负载平均值并不针对系统中的CPU核数进行归一化
┌──[root@vms100.liruilongs.github.io]-[~]└─$uptime 11:14:26 up 16 min,1 user,load average: 21.37, 18.64, 16.25登录后复制
这里主要关注 平均负载:
在Linux 系统中,这些数字包含了想要在 CPU 上运行的进程,同时也包含了阻塞在不可中断IO(通常是磁盘 I/O)上的进程。这给出了一个高层次视角的资源负载(或者说资源需求)。
3个数字分别是指数衰减的1分钟/5分钟/15分钟滑动窗累积值。通过这3个值可以大致了解负载随时间变化的情况。
快速查看CPU核数可以通过top命令然后按1键查看
top - 11:21:36 up 23 min,1 user,load average: 22.36, 19.03, 17.14Tasks: 443 total, 5 running, 438 sleeping, 0 stopped, 0 zombie%Cpu0:6.4 us,5.4 sy,0.0 ni, 77.9 id,0.0 wa,4.4 hi,5.9 si,0.0 st%Cpu1:9.2 us, 12.2 sy,0.0 ni, 71.9 id,3.6 wa,2.0 hi,1.0 si,0.0 st%Cpu2:4.8 us,3.6 sy,0.0 ni, 68.8 id,4.8 wa, 18.0 hi,0.0 si,0.0 st%Cpu3:4.5 us,5.5 sy,0.0 ni, 72.7 id,2.7 wa,0.5 hi, 14.1 si,0.0 stMiB Mem :15730.5 total, 7489.9 free, 6823.5 used, 1417.2 buff/cacheMiB Swap: 2068.0 total, 2068.0 free,0.0 used. 8496.2 avail Mem登录后复制
上面的例子显示负载最近有大幅的提升。一般情况下(还受到其他因素的影响,I/O 操作等),负载数与系统 CPU 核数的关系可以用以下规则来理解:
在top命令然后按1键的基础上可以按 t 键对数据进行可视化展示
top - 11:22:26 up 24 min,1 user,load average: 15.02, 17.58, 16.74Tasks: 449 total,19 running, 430 sleeping, 0 stopped, 0 zombie%Cpu0:24.5/37.1 62[|||||||||||||||||||||||||||||||||||||||||||||||||||||||||]%Cpu1:15.5/28.0 43[|||||||||||||||||||||||||||||||||||||||| ]%Cpu2:37.9/61.1 99[|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| ]%Cpu3:15.8/49.7 66[|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||登录后复制
- 如果负载数小于 CPU 核数的70-80%:这通常表示系统的负载较轻,有足够的处理能力来处理所有的任务。系统响应时间较短,性能较好。
- 如果负载数接近或超过 CPU 核数的100%:这表示系统的负载很高,正在接近或达到其处理能力的极限。系统可能会出现延迟或变慢的情况,响应时间变长。
- 如果负载数远远超过 CPU 核数的100%:这表示系统的负载非常高,超过了系统的处理能力。系统可能会出现严重的延迟,甚至崩溃或无法响应。
负载的平均值值得在排障过程中被首先进行检查,以确认性能问题是否还存在。在一个容错的环境中,一台存在性能问题的服务器,在你登录到机器上时,也许已经自动从服务列表中下线了。
一个较高的 15分钟负载与一个较低的1分钟负载同时出现,可能意味着已经错过了问题发生的现场。
┌──[root@vms100.liruilongs.github.io]-[~]└─$uptime 11:33:45 up 35 min,1 user,load average: 1.39, 6.06, 11.64┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
dmesg | tail 或者 cat /var/log/messages
或者 journalctl -k | tail 也可以结合 cat /var/log/messages 来排查
┌──[liruilong@liruilongs.github.io]-[~]└─$dmesg | tail[ 12.216869] vmwgfx 0000:00:0f.0: [drm] Available shader model: SM_5.[ 12.225954] [drm] Initialized vmwgfx 2.20.0 20211206 for 0000:00:0f.0 on minor 0[ 12.233005] Bluetooth: hci0: unexpected cc 0x0c12 length: 2 <p>这个命令显示过去 10 条系统日志,如果有的话。注意在这里寻找可能导致性能问题的错误。 添加 T和t 可以展示对应的时间</p><pre class="brush:php;toolbar:false;">┌──[root@vms100.liruilongs.github.io]-[~]└─$dmesg -T| tail[日 1月 14 10:58:57 2024] vmxnet3 0000:1b:00.0 ens256: NIC Link is Up 10000 Mbps[日 1月 14 10:59:38 2024] device ovs-system entered promiscuous mode[日 1月 14 10:59:39 2024] Timeout policy base is empty[日 1月 14 10:59:39 2024] Failed to associated timeout policy `ovs_test_tp'[日 1月 14 10:59:40 2024] device br-tun entered promiscuous mode[日 1月 14 10:59:40 2024] device br-int entered promiscuous mode[日 1月 14 10:59:40 2024] device ens224 entered promiscuous mode[日 1月 14 10:59:40 2024] device br-ex entered promiscuous mode[日 1月 14 11:03:14 2024] capability: warning: `privsep-helper' uses deprecated v2 capabilities in a way that may be insecure[日 1月 14 11:04:34 2024] hrtimer: interrupt took 11973872 ns┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
在日常维护中,往往结合 grep 快速定位问题
┌──[root@liruilongs.github.io]-[~]└─$ dmesg -T | grep -i error[五 11月 10 10:32:57 2023] BERT: Boot Error Record Table support is disabled. Enable it by using bert_enable as kernel parameter.┌──[root@liruilongs.github.io]-[~]└─$ dmesg -T | grep -i warn[五 11月 10 10:32:54 2023] Warning: Intel Processor - this hardware has not undergone upstream testing. Please consult http://wiki.centos.org/FAQ for more information┌──[root@liruilongs.github.io]-[~]└─$登录后复制
比如 内存不足引发OOM和TCP 的丢弃`请求的记录。
┌──[root@vms83.liruilongs.github.io]-[~]└─$cat /var/log/messages | grep -i memoryAug 10 20:37:27 vms83 kernel: [<ffffffff81186bd6>] out_of_memory+0x4b6/0x4f0Aug 10 20:37:27 vms83 kernel: Out of memory: Kill process 25143 (bigmem) score 1347 or sacrifice child</ffffffff81186bd6>登录后复制
TCP 的相关日志甚至指引了我们下一步的分析方向:查看SNMP 计数器值。
vmstat 1
┌──[root@liruilongs.github.io]-[~]└─$man vmstatVMSTAT(8) System Administration VMSTAT(8)NAME vmstat - Report virtual memory statisticsSYNOPSIS vmstat [options] [delay [count]]DESCRIPTION vmstat reports information about processes, memory, paging, block IO, traps, disks and cpu activity. The first report produced gives averages since the last reboot.Additional reports give information on a sam‐ pling period of length delay.The process and memory reports are instantaneous in either case. ..........................登录后复制
┌──[root@vms100.liruilongs.github.io]-[~]└─$vmstat 1procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- rb swpd free buffcache si sobibo in cs us sy id wa st6900 7700836 4204 144164800 369 101569 1819 11 35 45802610 7711264 4204 144166800 012 1209 13809 24 6430 800 7710592 4204 144166400 027779 12154 11 78701300 7699752 4204 144166800 0 0766 13133 25 72003100 7696384 4204 144228800 01412 1157 2928 12 32 49806000 7675296 4204 144429200 026 1068 138249 26 51 1403400 7670552 4204 144428000 017798 1514 14 52 34106010 7686712 4204 144450800 0 8807 21276 24 67305920 7676624 4204 144523200 0 8620 68307 66 22506800 7677948 4204 144244000 056 1329 3739 13 22 597010000 7677920 4204 144234000 021 1030 3778 16 50 29501900 7669208 4204 144322000 043958 3054 19 65 1060 520 7776028 4204 144536400 040 1124 20039 18 33 44408410 7764600 4204 144724000 036867 23470 14 53 27502200 7711224 4204 144732800 0 112 1353 11900 13 34 50403600 7734856 4204 144757200 0 321 1382 11113 10 22 47 2102810 7738716 4204 144650800 0 157889 57793 15 64 1803000 7719320 4204 144669600 0 151 1409 85265 27 57 100 710 7713972 4204 144719200 025 1372 23431 13 19 63501800 7715444 4204 144735600 056935 77506 19 67705400 7766760 4204 144063200 064 1237 4686 11 26 56705200 7712752 4204 144181600 0 4 1265 6567 25 33 4200^C┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
需要检查的列包括如下几个:
- r:CPU上正在执行的和等待执行的进程数量。相比平均负载来说,这是一个更好的排查CPU饱和度的指标,因为它不包含IO。可以这样解释:一个比CPU数量多的 r 值代表 CPU 资源处于饱和状态。
- free:空闲内存,单位是KB。如果数字位数一眼数不过来,那么内存应该是够用的。使用free -m 命令,可以更好地解释空闲内存。
- si 和so:页换入和页换出。如果这些值不是零,那么意味着系统内存紧张。这个值只有在配置开启了交换分区后才会起作用。
- us、sy、id、wa和st:这些都是 CPU运行时间的进一步细分,是对所有的CPU 取平均之后的结果。它们分别代表用户态时间、系统态时间(内核)、空闲率、等待I/O,以及被窃取时间(stolen time,指的是虚拟化环境下,被其他客户机所挤占的时间;或者是Xen 环境下客户机自身隔离的驱动域运行时间)。
上面的例子显示了CPU时间主要花在系统态上。这指引我们下一步将主要针对系统态代码进行剖析。
┌──[root@liruilongs.github.io]-[~]└─$vmstatprocs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- rb swpd free buffcache si sobibo in cs us sy id wa st 200 1057540 2072 1761012006827 150159584 8710┌──[root@liruilongs.github.io]-[~]└─$登录后复制
查看CPU平均值,当前系统中,可运行进程为2(r),被阻塞的进程为0(b),系统发生中断次数1501(in),系统发生上下文切换次数为595(cs),系统代码消耗CPU为4%(sy),用户代码消耗CPU为8%(us),系统空闲占比87%(id),剩余1%属于等待IO消耗的CPU空闲状态(wa)
┌──[root@liruilongs.github.io]-[~]└─$vmstat -s.......... 206387 non-nice user cpu ticks3 nice user cpu ticks 100381 system cpu ticks2184710 idle cpu ticks12604 IO-wait cpu ticks0 IRQ cpu ticks 4699 softirq cpu ticks0 stolen cpu ticks............ 37633050 interrupts 64361523 CPU context switches........... 210962 forks登录后复制
这里的ticks为一个时间单位,相关数据为自系统启动时间以来的数据。forks表示系统创建以来的进程数,CPU context switches表示上下文文切换次数,interrupts即中断次数,剩下的参数对应上面的列理解即可,stolen cpu 这个不太理解
mpstat -P ALL l
需要装包
┌──[root@vms100.liruilongs.github.io]-[~]└─$yum install -y sysstat登录后复制
这个命令将每个CPU分解到各个状态下的时间打印出来。
┌──[root@vms100.liruilongs.github.io]-[~]└─$mpstat -P ALL 1Linux 4.18.0-477.27.1.el8_8.x86_64 (vms100.liruilongs.github.io)2024年01月14日_x86_64_(4 CPU)11时43分36秒CPU%usr %nice%sys %iowait%irq %soft%steal%guest%gnice %idle11时43分37秒all 12.890.00 14.84 50.006.254.300.000.000.00 11.7211时43分37秒0 21.570.00 15.69 50.985.881.960.000.000.003.9211时43分37秒1 12.680.009.86 76.061.410.000.000.000.000.0011时43分37秒2 12.700.00 25.403.17 17.460.000.000.000.00 41.2711时43分37秒37.040.009.86 64.791.41 14.080.000.000.002.8211时43分37秒CPU%usr %nice%sys %iowait%irq %soft%steal%guest%gnice %idle11时43分38秒all8.650.00 13.16 31.581.50 12.780.000.000.00 32.3311时43分38秒0 17.650.00 25.495.881.96 25.490.000.000.00 23.5311时43分38秒18.000.00 10.67 24.002.67 10.670.000.000.00 44.0011时43分38秒24.170.009.72 77.780.002.780.000.000.005.5611时43分38秒37.350.00 10.29 10.291.47 16.180.000.000.00 54.4111时43分38秒CPU%usr %nice%sys %iowait%irq %soft%steal%guest%gnice %idle11时43分39秒all8.060.00 10.89 52.42 11.290.000.000.000.00 17.3411时43分39秒0 12.310.00 12.31 69.236.150.000.000.000.000.0011时43分39秒14.410.004.41 67.658.820.000.000.000.00 14.7111时43分39秒28.330.00 13.33 65.008.330.000.000.000.005.0011时43分39秒37.270.00 14.550.00 23.640.000.000.000.00 54.5511时43分39秒CPU%usr %nice%sys %iowait%irq %soft%steal%guest%gnice %idle11时43分40秒all 24.690.007.11 18.832.93 25.940.000.000.00 20.5011时43分40秒0 46.670.00 17.78 31.112.222.220.000.000.000.0011时43分40秒1 11.110.006.94 37.500.000.000.000.000.00 44.4411时43分40秒2 41.460.007.329.760.000.000.000.000.00 41.4611时43分40秒3 16.050.001.230.007.41 75.310.000.000.000.0011时43分40秒CPU%usr %nice%sys %iowait%irq %soft%steal%guest%gnice %idle11时43分41秒all 24.040.00 16.35 12.98 12.506.250.000.000.00 27.8811时43分41秒0 28.120.00 21.880.00 31.250.000.000.000.00 18.7511时43分41秒1 21.670.00 20.000.00 20.00 11.670.000.000.00 26.6711时43分41秒27.580.00 16.67 16.676.061.520.000.000.00 51.5211时43分41秒3 46.000.008.00 32.000.00 10.000.000.000.004.00登录后复制
对于比较高的 %iowait(等待I/O操作完成占用CPU的百分比,表示CPU时间用于等待I/O操作完成的百分比。) 时间也要注意,可以使用磁盘 I/O工具进一步分析
如果出现较高的 %sys 值(系统态占用),可以使用系统调用(syscall)跟踪和内核跟踪,以及CPU剖析等手段进一步分析。
%idle指CPU的空闲率,通过检查单个热点(繁忙)CPU,挑出一个可能的线程扩展性问题
上面的输出暴露了一个问题:CPU0 的用户态的占比高达 100%,这是单个线程遇到瓶颈的特征。
pidstat 1
pidstat(1)命令按每个进程展示 CPU的使用情况(包括用户态和系统态时间的分解)。top(l)命令虽然也很流行,但是pidstat(1)默认支持滚动打印输出,这样可以采集到不同时间段的数据变化。
┌──[root@vms100.liruilongs.github.io]-[~]└─$pidstat 3Linux 4.18.0-477.27.1.el8_8.x86_64 (vms100.liruilongs.github.io)2024年01月14日_x86_64_(4 CPU)11时31分10秒 UID PID%usr %system%guest %wait%CPU CPUCommand11时31分13秒 0140.001.990.001.661.99 0rcu_sched11时31分13秒 0330.000.660.000.000.66 3ksoftirqd/311时31分13秒 0 7180.000.330.002.650.33 3kworker/3:3-events11时31分13秒 0 9701.990.660.000.332.65 0tuned11时31分13秒 4243521330.660.000.000.660.66 2neutron-dhcp-ag11时31分13秒 4240721340.330.000.000.000.33 2cinder-schedule11时31分13秒 4243521370.660.330.000.330.99 0neutron-openvsw11时31分13秒 4243521820.330.000.000.330.33 3neutron-metadat11时31分13秒 4241824370.990.330.000.991.32 0heat-engine11时31分13秒 4241528420.660.990.000.661.66 0glance-api11时31分13秒 4243629360.990.000.000.660.99 3nova-conductor....................................................................................平均时间: 4243698190.330.000.001.500.33 -nova-conductor平均时间: 4241899510.170.500.000.000.66 -heat-engine平均时间: 4241899520.170.000.000.170.17 -heat-engine平均时间: 0 241780.000.170.000.000.17 -sshd平均时间: 42435 426620.330.170.000.330.50 -neutron-l3-agen平均时间: 0 797750.170.660.000.000.83 -pidstat┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
这个输出显示了一个Java 进程每秒使用的CPU 资源在变化:这个百分比是对全部CPU相加的和因此500%相当于5个100%运行的CPU。
iostat -xz
┌──[root@vms100.liruilongs.github.io]-[~]└─$iostat -xzLinux 4.18.0-477.27.1.el8_8.x86_64 (vms100.liruilongs.github.io)2024年01月14日_x86_64_(4 CPU)avg-cpu:%user %nice %system %iowait%steal %idle10.780.00 36.46 20.390.00 32.37Devicer/s w/s rkB/s wkB/s rrqm/s wrqm/s%rrqm%wrqm r_await w_await aqu-sz rareq-sz wareq-szsvctm%utilnvme0n1101.86 23.92 4143.65729.07 0.07 0.98 0.07 3.92 33.62 38.59 4.3540.6830.48 5.1064.21nvme0n20.550.00 15.620.00 0.00 0.00 0.00 0.00 28.660.00 0.0228.50 0.0019.27 1.06scd0 0.050.000.010.00 0.00 0.00 0.00 0.000.000.00 0.00 0.17 0.00 0.56 0.00dm-087.79 24.64 3865.46718.38 0.00 0.00 0.00 0.00 37.96 42.92 4.3944.0329.16 5.5962.87dm-1 0.510.00 11.590.00 0.00 0.00 0.00 0.004.500.00 0.0022.65 0.00 4.58 0.23登录后复制
这个工具显示了存储设备的IO 指标。要检查的列包括如下几个。
- r/s、w/s、rkB/s和 wkB/s:这些是每秒向设备发送的读、写次数,以及读、写字节数。可以用这些指标对业务负载画像。某些性能问题仅仅是因为超过了能够承受的最大负载导致的。
- await:I/O 的平均响应时间,以毫秒为单位。这是应用需要承受的时间,它同时包含了I/O 队列时间和服务时间。超过预期的平均响应时间,可看作设备已饱和或者设备层面有问题的表征。
- aqu-szavgqu-sz:设备请求队列的平均长度。比1大的值有可能是发生饱和的表征(不过对有些设备,尤其是对基于多块磁盘的虚拟设备来说,通常以并行方式处理请求)。
- %util:设备使用率。这是设备繁忙程度的百分比,显示了每秒设备开展实际工作的时间占比。不过它展示的并不是容量规划意义下的使用率,因为设备可以并行处理请求。大于60%的值通常会导致性能变差(可以通过await(完成对一个请求的服务所需的平均时间(按毫秒计),该平均时间为请求在磁盘队列中等待的时间加上磁盘对其服务所需的时间) 字段确认),不过这也取决于具体设备。接近 100% 的值通常代表了设备达到饱和状态。
iostat的扩展磁盘统计信息:
统计数据 | 说明 |
---|---|
rrqm/s | 在提交给磁盘前,被合并的读请求的数量 |
wrqm/s | 在提交给磁盘前,被合并的写请求的数量 |
r/s | 每秒提交给磁盘的读请求数量 |
w/s | 每秒提交给磁盘的写请求数量 |
rsec/s | 每秒读取的磁盘扇区数 |
wsec/s | 每秒写入的磁盘扇区数 |
rkB/s | 每秒从磁盘读取了多少KB的数据 |
wkB/s | 每秒向磁盘写入了多少KB的数据 |
avgrq-sz | 磁盘请求的平均大小(按扇区计) |
avgqu-sz | 磁盘请求队列的平均大小。 |
await | 完成对一个请求的服务所需的平均时间(按毫秒计),该平均时间为请求在磁盘队列中等待的时间加上磁盘对其服务所需的时间 |
svctm | 提交到磁盘的请求的平均服务时间(按毫秒计)。该项表明磁盘完成一个请求所花费的平均时间。与await不同,该项不包含在队列中等待的时间 |
%util | 利用率 |
当avgqu-sz的值特别大的时候,且请求等待时间await远远高于请求服务svctm所花费时间,且利用率%util为100%的时候,表明该磁盘处于饱和状态。
这有时会引起困惑,比如当iostat(1)报告说某个设备已经达到100%的使用率后,还能够接受更高的负载。它只是报告某个设备在一段时间内100%繁忙,并没有说设备的使用率达到100%了:此时也许仍然可以接受更高的负载。在一个卷后面有多个磁盘设备支撑的情况下由于可以并行处理请求,iostat(1)中的%util这个指标就更加具有迷惑性。
free -m
┌──[root@vms100.liruilongs.github.io]-[~]└─$free -mtotalusedfreesharedbuff/cache availableMem:15730756464405217257754Swap:2067 02067登录后复制
这个输出显示了用兆字节(MB)作为单位的可用内存。检查可用内存 (available)是否接近0;这个值显示了在系统中还有多少实际剩余内存可用,包括缓冲区和页缓存区。将一些内存用于缓存可以提升文件系统的性能。可以根据不同的参数更换单位
┌──[root@vms100.liruilongs.github.io]-[~]└─$free -gtotalusedfreesharedbuff/cache availableMem: 15 7 6 0 1 7Swap: 2 0 2┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
sar -n DEV 1
显示每个设备发送和接收的数据包数和字节数信息
┌──[root@vms100.liruilongs.github.io]-[~]└─$sar -n DEV 1Linux 4.18.0-477.27.1.el8_8.x86_64 (vms100.liruilongs.github.io)2024年01月14日_x86_64_(4 CPU)11时40分16秒 IFACE rxpck/s txpck/srxkB/stxkB/s rxcmp/s txcmp/srxmcst/s %ifutil11时40分17秒lo 17.54 17.540.980.980.000.000.000.0011时40分17秒ens160 50.88 58.773.794.070.000.000.880.0011时40分17秒ens224224.560.00 18.850.000.000.001.750.0011时40分17秒ens2560.000.000.000.000.000.000.000.0011时40分17秒 ovs-system0.000.000.000.000.000.000.000.0011时40分17秒br-tun0.000.000.000.000.000.000.000.0011时40分17秒 tap9f7d35c5-150.000.000.000.000.000.000.000.0011时40分17秒br-int0.000.000.000.000.000.000.000.0011时40分17秒 br-ex0.000.000.000.000.000.000.000.00^C平均时间: IFACE rxpck/s txpck/srxkB/stxkB/s rxcmp/s txcmp/srxmcst/s %ifutil平均时间:lo 22.94 22.941.291.290.000.000.000.00平均时间:ens160 50.22 51.083.704.320.000.000.870.00平均时间:ens224224.240.00 18.700.000.000.001.300.00平均时间:ens2560.000.000.000.000.000.000.000.00平均时间: ovs-system0.000.000.000.000.000.000.000.00平均时间:br-tun0.000.000.000.000.000.000.000.00平均时间: tap9f7d35c5-150.000.000.000.000.000.000.000.00平均时间:br-int0.000.000.000.000.000.000.000.00平均时间: br-ex0.000.000.000.000.000.000.000.00┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
列 | 说明 |
---|---|
rxpck/s | 数据包接收速率 |
txpck/s | 数据包发送速率 |
rxkB/s | kb接收速率 |
txkB/s | kb发送速率 |
rxcmp/s | 压缩包接收速率 |
txcmp/s | 压缩包发送速率 |
rxmcst/s | 多播包接收速率 |
显示每个设备的发送和接收错误信息
┌──[root@vms81.liruilongs.github.io]-[~/ansible]└─$sar -n EDEV 1 1Linux 3.10.0-693.el7.x86_64 (vms81.liruilongs.github.io)2022年05月14日_x86_64_(2 CPU)22时53分07秒 IFACE rxerr/s txerr/scoll/srxdrop/stxdrop/stxcarr/srxfram/srxfifo/stxfifo/s22时53分08秒 ens320.000.000.000.000.000.000.000.000.0022时53分08秒 cali86e7ca9e9c20.000.000.000.000.000.000.000.000.0022时53分08秒 cali13a4549bf1e0.000.000.000.000.000.000.000.000.0022时53分08秒 cali5a282a7bbb00.000.000.000.000.000.000.000.000.0022时53分08秒 cali12cf25006b50.000.000.000.000.000.000.000.000.0022时53分08秒 cali45e02b0b21e0.000.000.000.000.000.000.000.000.0022时53分08秒lo0.000.000.000.000.000.000.000.000.0022时53分08秒 calicb34164ec790.000.000.000.000.000.000.000.000.0022时53分08秒 tunl00.000.000.000.000.000.000.000.000.0022时53分08秒 docker00.000.000.000.000.000.000.000.000.00平均时间: IFACE rxerr/s txerr/scoll/srxdrop/stxdrop/stxcarr/srxfram/srxfifo/stxfifo/s平均时间: ens320.000.000.000.000.000.000.000.000.00平均时间: cali86e7ca9e9c20.000.000.000.000.000.000.000.000.00平均时间: cali13a4549bf1e0.000.000.000.000.000.000.000.000.00平均时间: cali5a282a7bbb00.000.000.000.000.000.000.000.000.00平均时间: cali12cf25006b50.000.000.000.000.000.000.000.000.00平均时间: cali45e02b0b21e0.000.000.000.000.000.000.000.000.00平均时间:lo0.000.000.000.000.000.000.000.000.00平均时间: calicb34164ec790.000.000.000.000.000.000.000.000.00平均时间: tunl00.000.000.000.000.000.000.000.000.00平均时间: docker00.000.000.000.000.000.000.000.000.00┌──[root@vms81.liruilongs.github.io]-[~/ansible]└─$登录后复制
列 | 说明 |
---|---|
rxerr/s | 接收错误率 |
txerr/s | 发送错误率 |
co11/s | 发送时的以太网冲突率 |
rxdrop/s | 由于Linux内核缓冲区不足而导致的接收帧丢弃率 |
txdrop/s | 由于Linux内核缓冲区不足而导致的发送帧丢弃率 |
txcarr/s | 由于载波错误而导致的发送帧丢弃率 |
rxfram/s | 由于帧对齐错误而导致的接收帧丢弃率 |
rxfifo/s | 由于FIFO错误而导致的接收帧丢弃率 |
txfifo/s | 由于FIFO错误而导致的发送帧丢弃率 |
显示使用套接字(TCP、UDP和RAW)的总数信息
┌──[root@vms81.liruilongs.github.io]-[~/ansible]└─$sar -n SOCK 1 3Linux 3.10.0-693.el7.x86_64 (vms81.liruilongs.github.io)2022年05月14日_x86_64_(2 CPU)22时56分23秒totscktcpsckudpsckrawsck ip-fragtcp-tw22时56分24秒3487 245 9 0 0 16322时56分25秒3487 245 9 0 0 16522时56分26秒3487 245 9 0 0 167平均时间:3487 245 9 0 0 165┌──[root@vms81.liruilongs.github.io]-[~/ansible]└─$登录后复制
列 | 说明 |
---|---|
totsck | 当前正在被使用的套接字总数 |
tcpsck | 当前正在被使用的TCP套接字总数 |
udpsck | 当前正在被使用的UDP套接字总数 |
rawsck | 当前正在被使用的RAW套接字总数 |
ip-frag | IP分片的总数 |
sar -n TCP,ETCP 1
┌──[root@vms100.liruilongs.github.io]-[~]└─$sar -n TCP,ETCP 1Linux 4.18.0-477.27.1.el8_8.x86_64 (vms100.liruilongs.github.io)2024年01月14日_x86_64_(4 CPU)11时39分24秒active/s passive/siseg/soseg/s11时39分25秒0.000.00 16.50 16.5011时39分24秒atmptf/sestres/s retrans/s isegerr/s orsts/s11时39分25秒0.000.000.000.00 15.5311时39分25秒active/s passive/siseg/soseg/s11时39分26秒0.000.005.005.0011时39分25秒atmptf/sestres/s retrans/s isegerr/s orsts/s11时39分26秒0.000.000.000.004.00.................................^C平均时间:active/s passive/siseg/soseg/s平均时间:0.000.00 17.82 17.82平均时间:atmptf/sestres/s retrans/s isegerr/s orsts/s平均时间:0.000.000.000.00 16.83┌──[root@vms100.liruilongs.github.io]-[~]└─$登录后复制
使用sar(1)工具来查看 TCP 指标和TCP 错误信息。相关的字段包括如下几个。
- active/s:每秒本地发起的 TCP连接的数量(通过调用connect0)创建)。
- passive/s:每秒远端发起的 TCP连接的数量(通过调用accept0创建)。
- retrans/s:每秒TCP 重传的数量。
- orsts/s:每秒的连接重置数。表示每秒钟发生的连接重置次数。
- atmptf/s:每秒的连接尝试次数。表示每秒钟有多少个连接尝试被发起。
- estres/s:每秒建立的连接数。表示每秒钟成功建立的连接数。
主动和被动连接计数对于业务负载画像很有用。重传则是网络或者远端主机有问题的征兆。
top
┌──[root@vms100.liruilongs.github.io]-[~]└─$toptop - 11:46:44 up 8 min,1 user,load average: 6.52, 17.45, 10.38Tasks: 449 total, 1 running, 448 sleeping, 0 stopped, 0 zombie%Cpu(s):0.9 us,1.1 sy,0.0 ni, 96.8 id,0.0 wa,0.6 hi,0.5 si,0.0 stMiB Mem :15730.5 total, 7503.6 free, 7147.4 used, 1079.5 buff/cacheMiB Swap: 2068.0 total, 2068.0 free,0.0 used. 8177.7 avail MemPID USERPRNIVIRTRESSHR S%CPU%MEM TIME+ COMMAND 1947 42418 20 0555196 13297220272 S 1.3 0.8 0:12.86 heat-engine10320 42436 20 0540276 12220017492 S 1.3 0.8 0:08.95 nova-scheduler949 root20 06940723164016876 S 1.0 0.2 0:16.58 tuned 1945 42415 20 0749212 14256434988 S 1.0 0.9 0:12.38 glance-api 1965 42436 20 0540120 12184817324 S 1.0 0.8 0:12.16 nova-conductor15567 root20 0269540 5228 4160 R 1.0 0.0 0:00.05 top..........................................登录后复制
以 top 命令作为结束,对相关结果进行二次确认,并能够浏览系统和进程的摘要信息运气好的话,这个60 秒分析过程会帮助你找到一些性能问题的线索。
可以通过 t 键和 m 对数据进行可视化展示
top - 19:32:22 up 2 days,3:01,1 user,load average: 0.00, 0.02, 0.05Tasks: 237 total, 2 running, 235 sleeping, 0 stopped, 0 zombie%Cpu0: 0.0/0.0 0[ ]%Cpu1: 0.0/0.0 0[ ]%Cpu2: 0.0/0.3 0[ ] %Cpu3: 0.0/0.0 0[ ]%Cpu4: 0.0/0.0 0[ ]%Cpu5: 0.0/0.0 0[ ]%Cpu6: 0.0/0.0 0[ ]%Cpu7: 0.0/0.0 0[ ]KiB Mem : 14.9/8154892[|||||||||||||| ]KiB Swap:0.0/0[ ]登录后复制
以上就是Linux 60秒快速性能分析操作手册的详细内容,更多请关注本站其它相关文章!