kubernetes数据卷主要解决了两方面问
1、 数据持久性: 通常情况,容器运行起来后,写入到其文件系统的文件是暂时性的。当容器崩溃后,kubelet 将容器kill掉后,然后生成一个新的容器,此时,新容器将没有原来容器的文件,因容器是重新从镜像创建的
2、数据共享: 同一个pod中运行的容器之间,经常会存在共享文件或者文件夹需求
kubernetes中,Volume(数据卷)存在明确的生命周期(与包含数据卷的容器组(pod)相同)。因此Volume的生命周期比同一容器组(POD)中任意容器的生命周期更长,不管容器重启了多少次,数据都会被保留;如果POD 不存在,数据卷自然退出。此时根据POD 所使用的数据卷类型不同,数据可能随着数据的退出而删除,也可能被真正持久化,并在下次容器组重启时仍然可以使用。
从根本上来说,一个数据卷仅仅是一个可以被pod访问的目录或者文件,这个目录取决于数据卷的类型(不同类型的数据卷使用不同的存储介质)。同一个pod中的两个容器可以将一个数据卷挂载到不同的目录下。
Emptydir
emptyDir 类型的数据卷在创建POD时分配给该pod,并且直到pod 被移除,该数据卷才被释放。该数据卷初始分配是,始终是一个空目录。同一个pod中的不同容器都可以对该目录执行读写操作,并且共享其中的数据(尽管不同容器可能将该数据卷挂载到容器中的不同路径)。当pod被删除后,Emptydir 数据中的数据将永久删除
(PS: 容器崩溃是,kubelet并不会删除pod,而仅仅是将容器重启,因此emptydir中的数据在容器崩溃并重启后,然后存在)
emptydir 使用场景
1. 空白的初始空间,例如合并/排序算法中,临时将数据保存在磁盘上
2. 长时间计算中存储检查点(中间结果),以便容器崩溃是,可以从上一次存储的检查点(中间结果)继续进行,而不是从头开始
3. 作为两个容器的共享存储,使得第一个内容管理的容器可以将生产的数据存入其中,同事一个webserver容器对外提供这些页面
4. 默认情况, emptydir数据存储在node节点的存储介质上
Emptydir使用示例
[apps@k8s-node-001 ~]cat emtydir.yaml
apiVersion: v1
kind: Pod
metadata:
name: read-write
spec:
containers:
- name: write #定义一个名为write的容器
image: busybox
volumeMounts:
- mountPath: /write #当数据持久化类型为emtydir时,这里的路径指的是容器内的路径
name: share-volume #指定本地的目录名
args: #容器运行后,进行写操作
- /bin/sh
- -c
- echo "emtydir test" > /write/hello;sleep 30000
- name: read #定义一个名为read的容器
image: busybox
volumeMounts:
- mountPath: /read
name: share-volume #指定本地的目录名
args: #容器运行后,进行读操作
- /bin/sh
- -c
- cat /read/hello; sleep 30000
volumes: #这里的volumes是指对上面挂载的进行解释
- name: share-volume #这里的名字必须和上面pod的mountPath下的name值对应
emptyDir: {} #这里表示是个空目录,主要是定义了一个数据持久化的类型
[apps@k8s-node-001 ~]# kubectl apply -f emtydir.yaml #执行yaml文件
[apps@k8s-node-001 ~]# kubectl exec -it read-write -c write /bin/sh #进入第一个pod
# cat /write/hello #确认yaml文件执行的命令是否生效
emtydir test
[apps@k8s-node-001 ~]# kubectl exec -it read-write -c read /bin/sh #进入第二个容器名为read的容器查看
# cat /read/hello #查看指定挂载的目录下是否和write容器中的内容一致
emtydir test
#至此,起码可以确认这两个pod是挂载了同一个本地目录,文件内容都一致。
#那么,现在看看具体挂载的是本地哪个目录?
[root@k8s-master-001 ~]# kubectl get pod -o wide #先通过此命令查看pod是运行在哪个节点上的
#我这里是运行在node01节点的,所以接下来需要到node01节点上进行查看
#node01节点操作如下:
[apps@k8s-node-001 ~]# docker ps #通过此命令查看出运行的容器ID号
CONTAINER ID IMAGE #省略部分内容
6186a08c6d5f busybox
5f19986f0879 busybox
[apps@k8s-node-001 ~]# docker inspect 6186a08c6d5f #查看第一个容器的详细信息
"Mounts": [ #找到mount字段
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume",
#上面的source就是指定的本地目录
"Destination": "/read",
"Mode": "Z",
"RW": true,
"Propagation": "rprivate"
[apps@k8s-node-001 ~]# docker inspect 5f19986f0879 #查看第二个容器的详细信息
"Mounts": [ #同样定位到mount字段
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume",
#可以看到,上面指定的本地目录和第一个容器指定的是同一个目录
"Destination": "/write",
"Mode": "Z",
"RW": true,
"Propagation": "rprivate"
},
#至此,已经可以确定这两个容器的挂载目录共享的是同一个本地目录
[apps@k8s-node-001 ~]# cat /var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume/hello
#查看本地该目录下的内容,和pod中的一致
emtydir test
验证k8s-node-001上删除一个POD 并再次查看本地目录:
[apps@k8s-node-001 ~]docker rm -f 6186a08c6d5f #删除一个pod
6186a08c6d5f
[apps@k8s-node-001 ~]# cat /var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume/hello
#查看本地目录,发现文件还在
emtydir test
在k8S master 端删除pod,再次k8s-node-001 上验证查看本地目录是否存在
[apps@k8s-master-001 ~]# kubectl delete -f emtydir.yaml
#在node01上再次查看本地目录,会提示不存在这个目录
[apps@k8s-master-001 ~]## cat /var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume/hello
cat: /var/lib/kubelet/pods/86b67ff4-9ca0-4f40-86d8-6778cfe949ec/volumes/kubernetes.io~empty-dir/share-volume/hello: 没有那个文件或目录
emptyDir 总结
在同一个POD里不同的容器中,共享同一个持久化目录,当pod 节点删除时,volume 的内容也会被删除。但如果仅仅是容器被销毁,pod还在,则volume 不会受到任何影响.emptydir的数据持久化的生命周期和使用的pod一致,一般是作为临时存储使用。