欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 社会 > 使用MPTCP+BBR进行数据传输,让网络又快又稳

使用MPTCP+BBR进行数据传输,让网络又快又稳

2025/1/6 5:19:34 来源:https://blog.csdn.net/puhaiyang/article/details/144908395  浏览:    关键词:使用MPTCP+BBR进行数据传输,让网络又快又稳

1.前言

在前文《链路聚合技术——多路径传输Multipath TCP(MPTCP)快速实践》中我们使用mptcpize run命令实现了两个节点间通信使用MPTCP协议进行传输,并实现了传输速率的聚合。

实际应用中更推荐原生支持mptcp的应用,在MPTCP官网中可以看到如TCPDump、VLC、CURL这些软件的较新版本均已支持MPTCP。

本文将以技术实践落地的角度出发,记录一个具有更高普适性的MPTCP通信场景。

mptcp-apps

2.目标拓扑

topo
目标:让左右两边的设备通信时使用MPTCP通信

应用场景:

  1. 企业多线组网,链路冗余与加速
  2. 家庭宽带多线路上网
  3. 链路聚合路由器
  4. ……

3.网关基础配置

本例中左右网关节点均为ubuntu22.04

3.1 系统开启mptcp

左右网络的边界节点均开启mptcp,此部分参考上一篇文章3.0章节。

确保mptcp已开启
mptcp-enable

3.2 系统开启ip转发

网关节点均启用IPV4转发

echo 1 > /proc/sys/net/ipv4/ip_forward

3.2 透明代理软件安装

tunnel
在拓扑图中的两个网关节点均安装支持MPTCP的透明代理软件。这里选择已屏蔽敏感词的新版——已屏蔽敏感词-rust

安装命令:

sudo apt update
sudo apt install snapd
sudo snap install 已屏蔽敏感词-rust

为方便使用,再配置环境变量:

vi /etc/profile

export PATH="$PATH:/snap/已屏蔽敏感词-rust/1512/bin"

安装后使用ssservice -V命令判断是否安装成功
ssservice-v

4.gateway节点配置

4.1 server端tun配置

拓扑图中的gw2作为server端,ip地址为:192.168.3.222

在server端创建配置文件存放目录

mkdir -p /root/ss && cd /root/ss

生成一个密钥:

ssservice genkey -m “chacha20-ietf-poly1305”

yWroi1LpQpL+mK84mGTpo6yb6rZlHCDhjIlbIuvez2A=

#创建并编辑配置文件
vi /root/ss/ss_server.json

{"fast_open": true,"method": "chacha20-ietf-poly1305","mptcp": true,"no_delay": true,"password": "yWroi1LpQpL+mK84mGTpo6yb6rZlHCDhjIlbIuvez2A=","reuse_port": true,"server": "0.0.0.0","server_port": 65101
}

运行ssserver,进入等待连接状态

ssserver -c /root/ss/ss_server.json &

ssserver

4.2 client端tun配置

拓扑图中的gw1作为client端,有以下网口信息:

  • eth1,ip:192.168.3.101
  • eth2,ip:192.168.3.102
  • eth0,ip:192.168.140.3

192.168.3.0/24网段用于隧道通信192.168.140.0/24网段用于左侧内网通信使用

4.2.1 ss-redir配置

与server端类似的,创建配置文件存放目录

mkdir -p /root/ss && cd /root/ss

#创建并编辑配置文件
vi /root/ss/ss_redir.json

{"fast_open": true,"ipv6_first": true,"local_address": "0.0.0.0","local_port": 1100,"method": "chacha20-ietf-poly1305","mode": "tcp_and_udp","mptcp": true,"no_delay": true,"password": "yWroi1LpQpL+mK84mGTpo6yb6rZlHCDhjIlbIuvez2A=","protocol": "redir","reuse_port": true,"keep_alive": 15,"server": "192.168.3.222","server_port": 65101,"use_syslog": true
}

其中的serverserver_port填入gw2节点的信息,mptcp设为true以开启mptcp,protocol设为redir以使用透明代理方式接入对端gw2节点

之后启动ss-redir

sslocal -c /root/ss/ss_redir.json &

ss_redir
如需要快速关闭ss-redir,执行:

kill -9 $(pidof sslocal) &>/dev/null

4.2.2 iptables配置

透明代理正常工作需要搭配系统的Netfilter规则,使用iptables命令对Netfilter规则进行管理。

配置内容如下:

# Create new chain
iptables -t nat -N MYMPTCPS
iptables -t mangle -N MYMPTCPS
# Ignore your MYMPTCPS server's addresses
# It's very IMPORTANT, just be careful.
iptables -t nat -A MYMPTCPS -d 192.168.3.222 -j RETURN# Ignore LANs and any other addresses you'd like to bypass the proxy
# See Wikipedia and RFC5735 for full list of reserved networks.
# See ashi009/bestroutetb for a highly optimized CHN route list.
iptables -t nat -A MYMPTCPS -d 0.0.0.0/8 -j RETURN
iptables -t nat -A MYMPTCPS -d 10.0.0.0/8 -j RETURN
iptables -t nat -A MYMPTCPS -d 127.0.0.0/8 -j RETURN
iptables -t nat -A MYMPTCPS -d 169.254.0.0/16 -j RETURN
iptables -t nat -A MYMPTCPS -d 172.16.0.0/12 -j RETURN
iptables -t nat -A MYMPTCPS -d 192.168.110.0/24 -j RETURN
iptables -t nat -A MYMPTCPS -d 192.168.14.0/24 -j RETURN
iptables -t nat -A MYMPTCPS -d 192.168.200.0/24 -j RETURN
iptables -t nat -A MYMPTCPS -d 224.0.0.0/4 -j RETURN
iptables -t nat -A MYMPTCPS -d 240.0.0.0/4 -j RETURN# Anything else should be redirected to MYMPTCPS's local port
iptables -t nat -A MYMPTCPS -p tcp -j REDIRECT --to-ports 1100# Apply the rules
iptables -t nat -A PREROUTING -p tcp -j MYMPTCPS 
iptables -t mangle -A PREROUTING -j MYMPTCPS 

配置项参考:[ss-redir requires netfilter’s NAT function]

使用iptables -t nat -L命令查看当前已有的nat规则

如需要删除上面iptables的配置项,执行以下命令:

#    iptables -t mangle -D MYMPTCPS -p udp -m mark --mark 0x1/0x1 -j TPROXY --on-ip 127.0.0.1 --on-port 1100 &>/dev/null    
iptables -t nat -D MYMPTCPS -p tcp -j REDIRECT --to-ports 1100 &>/dev/null   iptables -F    
iptables -X    
iptables -t nat -F    
iptables -t nat -X    
iptables -t mangle -F    
iptables -t mangle -X    
iptables -P INPUT ACCEPT    
iptables -P OUTPUT ACCEPT    
iptables -P FORWARD ACCEPT

此时两台gateway的配置就完成了。

5.主机接入验证

当拓扑图左侧的主机通过gw1节点接入网络后,就可以使用mptcp协议访问对端网络了。

5.1 网口模拟限速

gw1节点模拟限速,配置参考client端限速配置(模拟限速)部分。在gw1节点执行如下命令:

# 删除任何现有的qdisc
sudo tc qdisc del dev enp1s0 root
# 查看当前qdisc策略
tc qdisc show dev enp1s0
# 添加策略
sudo tc qdisc add dev enp1s0 root handle 1: htb default 12
# 设置带宽,300bit
sudo tc class add dev enp1s0 parent 1:1 classid 1:12 htb rate 300mbit ceil 300mbit
# 查看qdisc策略
sudo tc qdisc show dev enp1s0
# 查看class策略
sudo tc class show dev enp1s0
# 删除任何现有的qdisc
sudo tc qdisc del dev enp7s0 root
# 查看当前qdisc策略
tc qdisc show dev enp7s0
# 添加策略
sudo tc qdisc add dev enp7s0 root handle 1: htb default 12
# 设置带宽,300bit
sudo tc class add dev enp7s0 parent 1:1 classid 1:12 htb rate 200mbit ceil 200mbit
# 查看qdisc策略
sudo tc qdisc show dev enp7s0
# 查看class策略
sudo tc class show dev enp7s0

其中:

  • enp1s0为192.168.3.101的网口,限速为300mbit
  • enp7s0为192.168.3.102的网口,限速为200mbit

ifconfig

使用bmon -b也可以看到对应的限速策略信息
bmon-b

5.2 host-pc配置

如接入主机的ip地址为192.168.140.2,在这台主机上配置访问对应网络的网关地址gw1节点的ip

linux主机时,添加静态路由命令:

route add -net 192.168.3.0/24 gw 192.168.140.3

windows主机时,添加静态路由命令:

route ADD 192.168.3.0 MASK 255.255.255.0 192.168.140.3

使用route print |findstr "192.168.3.0"命令验证
win-route-print

5.2 发包验证

在拓扑图右侧的任意主机启动一个http服务,如服务主机的ip地址为192.168.3.221,运行一个SpeedTest测速软件:

sudo docker run -e MODE=standalone -e WEBPORT=8999 -e restart=always --net=host ghcr.io/librespeed/speedtest

5.2.1 单路径验证

gw1节点输入ip mptcp endpoint,输出为空,此时会根据系统路由走单路径发送数据包。
ip-mptcp-endpoint

测速结果如下:
single
与所配置的限速基本一致:200Mbit/s

5.2.2 双路径验证

gw1节点添加子链路:

ip mptcp endpoint add dev enp1s0 192.168.3.101 subflow
ip mptcp endpoint add dev enp8s0 192.168.3.102 subflow

此时mptcp中就有2条可用的链路了:
subflows
再次测速:
cubic
速率平均达到了463Mbit/s,但存在一定的网络抖动

不过从结果来看也速率确实进行了叠加,200+300=500Mbit/s

此时用netstat -anlp|grep 65101观察当前网络连接情况,也可以看到gw-2节点与gw-1节点建立了多个tcp连接,且所连接的目的地址中有192.168.3.101192.168.3.102

netstat

6.网络稳定性优化

从上面的测试结果可以看出,当前网络的最大传输速率还存在一定的波动。
当链路聚合后,最大上行速率为390~520Mbit/s,有抖动的情况。

6.1 拥塞控制算法查看

在两个gw节点使用如下命令进行查看:

ss -nti ‘( dport :65101 )’

从图片结果可知:当前使用的tcp拥塞控制算法为cubic
cubic

sysctl net.ipv4.tcp_available_congestion_control

reno-cubic

6.2 开启BBR

为了提升数据通信时的稳定性,将系统中的拥塞控制算法修改为BRR。

BBR的开启方式需要linux的内核版本大于4.9。
uname-r
由于我这里使用的系统为ubuntu22.04,其默认内核版本已支持bbr,则直接修改配置即可。

echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf
echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf

sysctl -p

add-bbr

之后再进行拉流测试,并观察ss -nti '( dport :65101 )'监控数据
ss-test

可以看到此时的tcp拥塞控制算法已使用bbr

bbr-test

且从测试结果可以看出,TCP的拥塞控制算法调整为BBR后,带宽的平均速率也有了一定的提高。

7.总结

通过对前文《链路聚合技术——多路径传输Multipath TCP(MPTCP)快速实践》和本文的综合应用,相信对于MPTCP的配置和实践有了一定的了解,体验下来后也会感悟到MPTCP的应用领域还是比较多的。

与LACP与BOND相比,MPTCP在数据传输时不会因子路径增加而新开辟单独的TCP连接,这种底层协议级的链路聚合也具有更好的性能表现。在开源产品方面,基于MPTCP的链路聚合路由器OpenMPTCProuter也获得了不错的好评。

愿网络越来越快,越来越稳~

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com