性能指标
- 带宽:表示链路的最大专属路率,单位b/s(比特/秒)。在为服务器选购网卡时,带宽就是最核心的参考指标,常用的带宽1000M、10G、40G、100G
- 吞吐量:表示没有丢表时的最大数据传输速率,单位通常为b/s(比特/秒)或者B/s(字节/秒)。吞吐量受带宽限制,吞吐量/带宽 就是该网络链路的使用率
- 延迟:表示从网络请求发出后,一只到收到远端响应,所需要的时间延迟。这个指标在不同场景中可能会有不同含义。它可以表示建立连接需要的时间(比如TCP握手延迟),或者一个数据包往返所需时间(比如RTT)
- PPS:是 packet per second(包/秒)的缩写,表示以网络包单位的传输速率。PPS通常用来评估网络的转发能力,而基于Linux服务器的转发,很容器受到网络包大小的影响(交换机通常不会收到太大影响,即交换机可以线性转发)。
带宽跟物理网卡配置是直接关联的。网卡确定后,带宽也就确定了,(实际带宽受限于整个网络链路中最小的那个模块)
网络基准测试
测试之前,要搞清楚你需要评估的网络性能,数据协议栈的那一层,就是你的应用程序基于协议栈的那一层?
- 基于HTTP或者HTTPS的Web应用畅叙,数据应用层。需要我们测试HTTP,HTTPS的性能
- 游戏服务器来说,为了支持更大的同时在线人数,通常会基于TCP或者UDP,与客户端进行交互,这时就需要我们测试TCP/UDP的性能。
- 还有一些场景,是把Linux作为一个软交换机或者路由器来用的,这种情况下,更关注网络包处理能力(即PPS),重点关注网络层的转发性能
各协议层的性能测试
转发性能
测试工具:pktgen,Linux内核自带的高性能网络测试工具
- 加载pktgen模块
$ modprobe pktgen
$ ls /proc/net/pktgen/
ens33 kpktgend_0 pgctrl
$ ls /proc/net/pktgen/
ens33 kpktgend_0 pgctrl
pkten 在每个CPU上启动一个内核线程,并可以通过/proc/net/pktgen 下面的同名文件跟这些线程交互;pgctrl则主要控制测试开启和停止
如果 modprobe 命令执行失败,说明你的内核没有配置 CONFIG_NET_PKTGEN 选项。这就需要你配置 pktgen 内核模块(即 CONFIG_NET_PKTGEN=m)后,重新编译内核,才可以使用。
- 创建测试脚本
目标主机(ip:192.168.0.30 mac:11:11:11:11:11:11) < 发包主机(ens33)
# 定义一个工具函数,方便后面配置各种测试选项
function pgset() {
local result
echo $1 > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
# 为0号线程绑定ens33网卡
PGDEV=/proc/net/pktgen/kpktgend_0
pgset "rem_device_all" # 清空网卡绑定
pgset "add_device ens33" # 添加ens33网卡
# 配置ens33网卡的测试选项
PGDEV=/proc/net/pktgen/ens33
pgset "count 1000000" # 总发包数量
pgset "delay 5000" # 不同包之间的发送延迟(单位纳秒)
pgset "clone_skb 0" # SKB包复制
pgset "pkt_size 64" # 网络包大小
pgset "dst 192.168.0.30" # 目的IP
pgset "dst_mac 11:11:11:11:11:11" # 目的MAC
# 启动测试
PGDEV=/proc/net/pktgen/pgctrl
pgset "start"
- 启动测试脚本查看结果
sh psget.sh
[root@localhost ~]# cat /proc/net/pktgen/ens33
Params: count 1000000 min_pkt_size: 64 max_pkt_size: 64
frags: 0 delay: 5000 clone_skb: 0 ifname: ens33
flows: 0 flowlen: 0
queue_map_min: 0 queue_map_max: 0
...
Current:
pkts-sofar: 1000000 errors: 0
started: 55473279860us stopped: 55485749747us idle: 13143us
seq_num: 1000001 cur_dst_mac_offset: 0 cur_src_mac_offset: 0
...
Result: OK: 12469886(c12456743+d13143) usec, 1000000 (64byte,0frags)
80193pps 41Mb/sec (41058816bps) errors: 0
报告分为三个部分
- 第一部分:params 是测试选项,发送100万个包,每个包64B大小,最大包64B大小
- 第二部分:current是测试进度,其中packts so far 表示已经发送了100万个包,表示测试完成
- 第三部分:result是测试结果,包含测试所用时间,网络包数量和分片,PPS,吞吐量,错误数信息
上面结果可以看出 PPS为8万,吞吐量为41Mb/s,没法发生错误,为了判断8万PPS好不好?
可以用千兆交换机PPS做对比,交换机可以达到线速度(满负责,无差错转发)它的PPS就是1000Mbit / 以太网帧大小,即 1000Mbps/ ((64+20)*8bit)=1.5mpps (其中20B为以太网帧前导和帧间距离大小)
1.5mpps * 1024 * 1025 = 1572864pps ,显然是比8万pps大多了,
TCP/UDP性能
测试工具:iperf,netperf
测试TCP和UDP的吞吐量,他们以客户端和服务器通信往事,测试一段时间内的平均吞吐量
服务器主机:192.168.65.2
客户端主机:192.168.65.3
- 安装
yum -y install iperf3
- 服务端开启iperf
# -s表示启动服务端,-i表示汇报间隔,-p表示监听端口
iperf3 -s -i 1 -p 10000
- 客户端开启测试
# -c表示启动客户端,192.168.0.30为目标服务器的IP
# -b表示目标带宽(单位是bits/s)# -t表示测试时间
# -P表示并发数,-p表示目标服务器监听端口
iperf3 -c 192.168.65.2 -b 2M -t 15 -P 2 -p 10000
- 测试结果
[ ID] Interval Transfer Bandwidth Retr
[ 4] 0.00-15.00 sec 1.23 MBytes 688 Kbits/sec 231 sender
[ 4] 0.00-15.00 sec 994 KBytes 543 Kbits/sec receiver
[ 6] 0.00-15.00 sec 1.35 MBytes 754 Kbits/sec 208 sender
[ 6] 0.00-15.00 sec 1.08 MBytes 602 Kbits/sec receiver
[SUM] 0.00-15.00 sec 2.58 MBytes 1.44 Mbits/sec 439 sender
[SUM] 0.00-15.00 sec 2.05 MBytes 1.14 Mbits/sec receiver
iperf Done.
# 从测试中可以看到,客户端带宽大概1M左右
HTTP性能
测试工具有:ab,wrk,TCPCopy,Jmeter ,LoadRunner
ab 是 Apache 自带的 HTTP 压测工具,主要测试 HTTP 服务的每秒请求数、请求延迟、吞吐量以及请求延迟的分布情况等
wrk、TCPCopy、Jmeter 、LoadRunner:可以模拟用户请求负责,测试应用程序的实际性能