GCE 容器网络调试

经常在网上各种找各种命令,感觉非常麻烦。难得放假有空了,我决定以 Kubernetes GCE 部署方式,整理出整个网络架构,记录下常用命令。

首要问题,怎样才能给每个容器分配一个独立 IP?GCE 上的 VM 可以在 VPC 下划分 subnet。也就是说一个 VM 有相当于一个小 VPC了,每个容器又在这小 VPC 上分一个 IP。在主机上看 route (note: 也可使用 route -n):

# ip route
default via 10.240.0.1 dev eth0 proto dhcp src 10.240.0.3 metric 1024
default via 10.240.0.1 dev eth0 proto dhcp metric 1024
10.28.6.0/24 dev cbr0 proto kernel scope link src 10.28.6.1
10.240.0.1 dev eth0 proto dhcp scope link src 10.240.0.3 metric 1024
10.240.0.1 dev eth0 proto dhcp scope link metric 1024
169.254.123.0/24 dev docker0 proto kernel scope link src 169.254.123.1 linkdown

这里我们发现有容器 subnet "10.28.6.0/24", 对 subnet 的访问是通过 cbr0。进一步检测可以发现 cbr0 是一个网桥:

# ip -d link list
4: cbr0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1460 qdisc htb state UP mode DEFAULT group default qlen 1000
    link/ether 0a:58:0a:1c:06:01 brd ff:ff:ff:ff:ff:ff promiscuity 1
    bridge forward_delay 1500 hello_time 200 max_age 2000 ageing_time 30000 stp_state 0 priority 32768 vlan_filtering 0 bridge_id 8000.a:58:a:1c:6:1 designated_root 8000.a:58:a:1c:6:1 root_port 0 root_path_cost 0 topology_change 0 topology_change_detected 0 hello_timer    0.00 tcn_timer    0.00 topology_change_timer    0.00 gc_timer  216.69 group_fwd_mask 0 group_address 01:80:c2:00:00:00 mcast_snooping 1 mcast_router 1 mcast_query_use_ifaddr 0 mcast_querier 0 mcast_hash_elasticity 4 mcast_hash_max 512 mcast_last_member_count 2 mcast_startup_query_count 2 mcast_last_member_interval 100 mcast_membership_interval 26000 mcast_querier_interval 25500 mcast_query_interval 12500 mcast_query_response_interval 1000 mcast_startup_query_interval 3125 nf_call_iptables 0 nf_call_ip6tables 0 nf_call_arptables 0 addrgenmode eui64 numtxqueues 1 numrxqueues 1

容器又是怎样被分配 IP 的呢?这个跟 Kubelet "--network-plugin" 有关。同时也涉及到大家耳熟能详的 CNI 了。但是 GCE 上的使用的是 kubenet:

# ps aux | grep kubelet
/home/kubernetes/bin/kubelet ... --network-plugin=kubenet

kubenet 文档 link。其实就两句话能说清:

Kubenet creates a Linux bridge named cbr0 and creates a veth pair for each pod with the host end of each pair connected to cbr0. The pod end of the pair is assigned an IP address allocated from a range assigned to the node either through configuration or by the controller-manager.

cnitool 基本类似。

下面进一步检测这里提及的 veth pair。

首先,在本机上是没法看到任何 network namespace:

# ip netns list

啥都没有。读 ip-netns 文档 可以知道需要有 /var/run/netns/NAME。

首先我们选个容器去找 PID:

# docker ps
fd3943d09a51        ...
# docker inspect fd3943d09a51 | grep -i pid
 "Pid": 2497,

然后通过 PID link 它的 netns 到 /var/run/netns/$NAME

# ln -s /proc/2497/ns/net /var/run/netns/test
# ip netns list
test

现在我们就可以看到这个 netns 了。

然后进入这个 netns 找出这个容器的 veth interface:

注:还有其他方式如 nsenter

# ip netns exec test ip -d addr list
3: eth0@if8: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc noqueue state UP group default
    link/ether 0a:58:0a:1c:06:05 brd ff:ff:ff:ff:ff:ff link-netnsid 0 promiscuity 0
    veth numtxqueues 1 numrxqueues 1
    inet 10.28.6.5/24 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::544d:c1ff:fe20:9732/64 scope link
       valid_lft forever preferred_lft forever

可以看到这个容器里面 eth0是 veth,IP 是 "10.28.6.5/24"。

进一步找出它的 peer index:

# ip netns exec test ethtool -S eth0
NIC statistics:
     peer_ifindex: 8

在 host 上找到对应的 interface:

# ip link list
8: veth044b5046@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc noqueue master cbr0 state UP mode DEFAULT group default
    link/ether 26:1c:5a:35:e0:3b brd ff:ff:ff:ff:ff:ff link-netnsid 3

确定这个 veth 在 cbr0 上:

# brctl show
bridge name bridge id       STP enabled interfaces
cbr0        8000.0a580a1c0601   no      veth044b5046
                                        ...

Voila! 这样整条链路就清晰了。如下图所示:


container network.png

推荐扩展阅读: https://eng.lyft.com/announcing-cni-ipvlan-vpc-k8s-ipvlan-overlay-free-kubernetes-networking-in-aws-95191201476e

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,045评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,114评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,120评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,902评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,828评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,132评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,590评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,258评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,408评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,335评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,385评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,068评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,660评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,747评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,967评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,406评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,970评论 2 341

推荐阅读更多精彩内容

  • NAME dnsmasq - A lightweight DHCP and caching DNS server....
    ximitc阅读 2,793评论 0 0
  • 容器近几年非常流行,有很多项目都考虑将容器与SDN结合。Kuryr就是其中一个项目。Kuryr项目在OpenSta...
    蝎子看互联网阅读 2,286评论 0 51
  • 一、Docker 简介 Docker 两个主要部件:Docker: 开源的容器虚拟化平台Docker Hub: 用...
    R_X阅读 4,373评论 0 27
  • 精进 练习自己:透过事物看本质,通过言论观全局的本领。只有把自己练成,站在制高点才可以明晰一切 感受 通过别人的发...
    若兰ZHOU阅读 251评论 1 1
  • m_<:这里记录C#学习的笔记,基础的语法略去,重点在类、方法、继承三项。 1 类继承 2
    七面琅琊阅读 139评论 0 0