1、杀死进程
* kill+PID # 杀死指定PID的进程
* pkill+服务名称 # 杀死全部
pkill -9 -t pts/0 #踢出从远程登录得用户
* killall+服务名称 # 杀死全部
2、管理后台进程
- 什么是后台进程
通常进程都会在终端前台进行,一旦关闭终端,进程也会随
着结束,那么此时我们就希望进程能在后台运行,就是将在
前台的进程放入后台运行,这样即使我们关闭了终端也不影
响进程的正常运行
- 为什么要将进程放入后台运行
在国内服务器往国外服务器传输大文件时,由于网络的问题
需要传输很久,如果在传输的过程中出现网络抖动或者不小
心关闭了终端则会导致传输失败,如果能将传输的进程放入
后台,就能解决此类问题了
- 使用工具将进程放入后台
早期使用&将进程放入后台,然后使用jbos、bg、fg等方式查
看进程状态。(已淘汰)
jobs、bg、fg、的使用
[root@oldboy ~]# sleep 3000 & //运行程序(时),让其在后台执行
[root@oldboy ~]# sleep 4000 //^Z,将前台的程序挂起(暂停)到后台
[2]+ Stopped sleep 4000
[root@oldboy ~]# ps aux |grep sleep
[root@oldboyi ~]# jobs //查看后台作业
[1]- Running sleep 3000 &
[2]+ Stopped sleep 4000
[root@oldboy ~]# bg %2 //让作业 2 在后台运行
[root@oldboy ~]# fg %1 //将作业 1 调回到前台
[root@oldboy ~]# kill %1 //kill 1,终止 PID 为 1 的进程
[root@xuliangwei ~]# (while :; do date; sleep 2; done) & //进程在后台运行,但输出依然在当前终端
[root@xuliangwei ~]# (while :; do date; sleep 2; done) &>/dev/null &
- screen 的使用
* 安装
[root@oldboy ~]# yum install screen -y
* 开启一个screen窗口,指定名称
[root@oldboy ~]# screen -S wget_mysql
* 在screen窗口中执行任务即可
* 平滑的退出screen,但不会终止screen中的任务。注意: 如果
使用exit 才算真的关闭screen窗口
ctrl+a+d
* 查看当前正在运行的screen有哪些
[root@oldboy ~]# screen -list
There is a screen on:
22058.wget_mysql (Detached)
1 Socket in /var/run/screen/S-root.
* 进入正在运行的screen
[root@oldboy ~]# screen -r wget_mysql
[root@oldboy ~]# screen -r 22058
3、进程的优先级
- 什么是优先级
优先级指的是优先享受资源
- 为什么要有系统优先级
为了让实际工作中需要优先执行的进程可以最先执行
- 系统中如何给进程配置优先级
nice值越高:表示优先级越低,例如+19,该进程容易将CPU使用量让给其他进程
nice值越低:表示优先级越高,例如-20,该进程不会让出CPU
- 使用top或ps命令查看进程的优先级
#1.使用top可以查看nice优先级。 NI: 实际nice级别,默认是0。 PR: 显示nice值,-20映射到0,+19映射到39
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
1083 root 20 0 298628 2808 1544 S 0.3 0.1 2:49.28 vmtoolsd
5 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 kworker/0:+
#2.使用ps查看进程优先级
[root@m01 ~]# ps axo command,nice |grep sshd|grep -v grep
/usr/sbin/sshd -D 0
sshd: root@pts/2 0
- nice指定程序的优先级。
语法 nice -n 优先级数字 进程名字
#1.开启vim并且指定程序优先级为-5
[root@m01 ~]# nice -n -5 vim &
[1] 98417
#2.查看该进程的优先级情况
[root@m01 ~]# ps axo pid,command,nice |grep 98417
98417 vim -5
- renice命令修改一个正在运行的进程优先级
语法
renice -n 优先级数字 进程pid
#1.查看sshd进程当前的优先级状态
[root@m01 ~]# ps axo pid,command,nice |grep 折叠shd
70840 sshd: root@pts/2 0
98002 /usr/sbin/sshd -D 0
#2.调整sshd主进程的优先级
[root@m01 ~]# renice -n -20 98002
98002 (process ID) old priority 0, new priority -20
#3.调整之后记得退出终端
[root@m01 ~]# ps axo pid,command,nice |grep 折叠shd
70840 sshd: root@pts/2 0
98002 /usr/sbin/sshd -D -20
[root@m01 ~]# exit
#4.当再次登陆sshd服务,会由主进程fork子进程(那么子进程会继承主进程的优先级)
[root@m01 ~]# ps axo pid,command,nice |grep 折叠shd
98002 /usr/sbin/sshd -D -20
98122 sshd: root@pts/0 -20
-
linux出现假死
https://www.xuliangwei.com/bgx/1337.html
4、系统平均负载
每次发现系统变慢时,我们通常做的第一件事,就是执行top或者uptime命令,来了解系统的负载情况。
比如
[root@m01 ~]# uptime
04:49:26 up 2 days, 2:33, 2 users, load average: 0.70, 0.04, 0.05
#我们已经比较熟悉前面几列,它们分别是当前时间、系统运
行时间以及正在登录用户数。
# 而最后三个数字呢,依次则是过去 1 分钟、5 分钟、15 分
钟的平均负载(Load Average)。
- 什么是平均负载
平均负载是指单位时间内,系统处于运行状态和不可中断状态的平均活跃进程数。
PS:平均负载
CPU:使用率并没有直接关系
- 可运行状态和不可中断状态
* 可运行状态进程,是指正在使用CPU或者正在等待CPU的
进程,也就是我们PS命令看到处于R状态的进程
* 不可中断进程,系统中常见的是等待硬件设备的I/O响应,
也就是我们PS命令中看到D状态(也称Disk Sieep)的进程
* 所以,不可中断状态实际上是系统对进程和硬件设备的一种
保护机制。
划重点,因此你可以简单理解为,平均负载其实就是单位时间内的活跃进程数。
- 平均负载为多少时合理
最理想的状态是每个 CPU 上都刚好运行着一个进程,这样每
个 CPU 都得到了充分利用。所以在评判平均负载时,首先你
要知道系统有几个 CPU,这可以通过 top 命令获取,或grep
'model name' /proc/cpuinfo
例1、假设现在在 4、2、1核的CPU上,如果平均负载为 2 时,意味着什么呢?
Q1.在4 个 CPU 的系统上,意味着 CPU 有 50% 的空闲。
Q2.在2 个 CPU 的系统上,意味着所有的 CPU 都刚好被完全占用。
Q3.而1 个 CPU 的系统上,则意味着有一半的进程竞争不到 CPU。
平均负载有三个数值,我们应该关注哪个呢?
1.如果 1 分钟、5 分钟、15 分钟的三个值基本相同,或者相
差不大,那就说明系统负载很平稳。
2.但如果 1 分钟的值远小于 15 分钟的值,就说明系统最近 1
分钟的负载在减少,而过去 15 分钟内却有很大的负载。
3.反过来,如果 1 分钟的值远大于 15 分钟的值,就说明最近
1 分钟的负载在增加,这种增加有可能只是临时性的,也有
可能还会持续上升,所以就需要持续观察。
PS: 一旦 1 分钟的平均负载接近或超过了 CPU 的个数,就意
味着系统正在发生过载的问题,这时就得分析问题,并要想办法优化了
在来看个例子3、假设我们在有2个 CPU 系统上看到平均负载为 2.73,6.90,12.98
那么说明在过去1 分钟内,系统有 136% 的超载 (2.73/2=136%)
而在过去 5 分钟内,有 345% 的超载 (6.90/2=345%)
而在过去15 分钟内,有 649% 的超载,(12.98/2=649%)
但从整体趋势来看,系统的负载是在逐步的降低。
- 在实际生产环境中,平均负载多高时,需要我们重点关注呢?
当平均负载高于 CPU 数量 70% 的时候,你就应该分析排查
负载高的问题了。一旦负载过高,就可能导致进程响应变
慢,进而影响服务的正常功能。
但 70% 这个数字并不是绝对的,最推荐的方法,还是把系统
的平均负载监控起来,然后根据更多的历史数据,判断负载
的变化趋势。当发现负载有明显升高趋势时,比如说负载翻
倍了,你再去做分析和调查。
- 平均负载与 CPU 使用率有什么关系
在实际工作中,我们经常容易把平均负载和 CPU 使用率混
淆,所以在这里,我也做一个区分。可能你会疑惑,既然平
均负载代表的是活跃进程数,那平均负载高了,不就意味着
CPU 使用率高吗?
我们还是要回到平均负载的含义上来,平均负载是指单位时
间内,处于可运行状态和不可中断状态的进程数。所以,它
不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待
I/O 的进程。
而 CPU 使用率,是单位时间内 CPU 繁忙情况的统计,跟平
均负载并不一定完全对应。比如:
CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此
时这两者是一致的;
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU
使用率不一定很高;
大量等待 CPU 的进程调度也会导致平均负载升高,此时的
CPU 使用率也会比较高。
- 平均负载案例分析实战
stress 是 Linux 系统压力测试工具,这里我们用作异常进程
模拟平均负载升高的场景。
mpstat 是多核 CPU 性能分析工具,用来实时查看每个 CPU
的性能指标,以及所有 CPU 的平均指标。
pidstat 是一个常用的进程性能分析工具,用来实时查看进程
的 CPU、内存、I/O 以及上下文切换等性能指标。
#如果出现无法使用mpstat、pidstat命令查看%wait指标建议更新下软件包
wget http://pagesperso-orange.fr/sebastien.godard/sysstat-11.7.3-1.x86_64.rpm
rpm -Uvh sysstat-11.7.3-1.x86_64.rpm
场景一:CPU 密集型进程
- 1.首先,我们在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景:
[root@m01 ~]# stress --cpu 1 --timeout 600
- 接着,在第二个终端运行 uptime 查看平均负载的变化情况
# 使用watch -d 参数表示高亮显示变化的区域(注意负载会持续升高)
[root@m01 ~]# watch -d uptime
17:27:44 up 2 days, 3:11, 3 users, load average: 1.10, 0.30, 0.17
- 最后,在第三个终端运行 mpstat 查看 CPU 使用率的变化情况
# -P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据
[root@m01 ~]# mpstat -P ALL 5
Linux 3.10.0-957.1.3.el7.x86_64 (m01) 2019年04月29日 _x86_64_ (1 CPU)
17时32分03秒 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
17时32分08秒 all 99.80 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
17时32分08秒 0 99.80 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
#单核CPU所以只有一个all和0
- 从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。那么,到底是哪个进程导致了 CPU 使用率为 100% 呢?可以使用 pidstat 来查询
# 间隔 5 秒后输出一组数据
[root@m01 ~]# pidstat -u 5 1
Linux 3.10.0-957.1.3.el7.x86_64 (m01) 2019年04月29日 _x86_64_(1 CPU)
17时33分21秒 UID PID %usr %system %guest %CPU CPU Command
17时33分26秒 0 110019 98.80 0.00 0.00 98.80 0 stress
#从这里可以明显看到,stress 进程的 CPU 使用率为 100%。
场景二:I/O 密集型进程
- 首先还是运行 stress 命令,但这次模拟 I/O 压力,即不停地执行 sync
[root@m01 ~]# stress --io 1 --timeout 600s
- 然后在第二个终端运行 uptime 查看平均负载的变化情况:
[root@m01 ~]# watch -d uptime
18:43:51 up 2 days, 4:27, 3 users, load average: 1.12, 0.65, 0.00
- 最后第三个终端运行 mpstat 查看 CPU 使用率的变化情况:
# 显示所有 CPU 的指标,并在间隔 5 秒输出一组数据
[root@m01 ~]# mpstat -P ALL 5
Linux 3.10.0-693.2.2.el7.x86_64 (bgx.com) 2019年05月07日 _x86_64_ (1 CPU)
14时20分07秒 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
14时20分12秒 all 0.20 0.00 82.45 17.35 0.00 0.00 0.00 0.00 0.00 0.00
14时20分12秒 0 0.20 0.00 82.45 17.35 0.00 0.00 0.00 0.00 0.00 0.00
#会发现cpu的与内核打交道的sys占用非常高
- 那么到底是哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询
# 间隔 5 秒后输出一组数据,-u 表示 CPU 指标
[root@m01 ~]# pidstat -u 5 1
Linux 3.10.0-957.1.3.el7.x86_64 (m01) 2019年04月29日 _x86_64_(1 CPU)
18时29分37秒 UID PID %usr %system %guest %wait %CPU CPU Command
18时29分42秒 0 127259 32.60 0.20 0.00 67.20 32.80 0 stress
18时29分42秒 0 127261 4.60 28.20 0.00 67.20 32.80 0 stress
18时29分42秒 0 127262 4.20 28.60 0.00 67.20 32.80 0 stress
#可以发现,还是 stress 进程导致的。
场景三:大量进程的场景
当系统中运行进程超出 CPU 运行能力时,就会出现等待 CPU 的进程。
- 首先,我们还是使用 stress,但这次模拟的是 4 个进程
[root@m01 ~]# stress -c 4 --timeout 600
- 由于系统只有 1 个 CPU,明显比 4 个进程要少得多,因而,系统的 CPU 处于严重过载状态
[root@m01 ~]# watch -d uptime
19:11:07 up 2 days, 4:45, 3 users, load average: 4.65, 2.65, 4.65
- 然后,再运行 pidstat 来看一下进程的情况:
# 间隔 5 秒后输出一组数据
[root@m01 ~]# pidstat -u 5 1
平均时间: UID PID %usr %system %guest %wait %CPU CPU Command
平均时间: 0 130290 24.55 0.00 0.00 75.25 24.55 - stress
平均时间: 0 130291 24.95 0.00 0.00 75.25 24.95 - stress
平均时间: 0 130292 24.95 0.00 0.00 75.25 24.95 - stress
平均时间: 0 130293 24.75 0.00 0.00 74.65 24.75 - stress
可以看出,4 个进程在争抢 1 个 CPU,每个进程等待 CPU
的时间(也就是代码块中的 %wait 列)高达 75%。这些超出
CPU 计算能力的进程,最终导致 CPU 过载。
分析完这三个案例,我再来归纳一下平均负载与CPU
平均负载提供了一个快速查看系统整体性能的手段,反映了
整体的负载情况。但只看平均负载本身,我们并不能直接发
现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也
要注意:
平均负载高有可能是 CPU 密集型进程导致的;
平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更
繁忙了;
当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,
辅助分析负载的来源