@zhangyy
2020-12-14T03:52:52.000000Z
字数 6602
阅读 814
kubernetes系列
- 一: kubernetes的PV/PVC存储
PersistentVolume (PV)是由管理员设置的存储,它是群集的一部分。就像节点是集群中的资源一样,PV 也是集群中的资源。 PV 是Volume 之类的卷插件,但具有独立于使用 PV 的 Pod 的生命周期。此 API 对象包含存储实现的细节,即 NFS、iSCSI 或特定于云供应商的存储系统
PersistentVolumeClaim (PVC)是用户存储的请求。它与 Pod 相似。Pod 消耗节点资源,PVC 消耗 PV 资源。Pod 可以请求特定级别的资源(CPU 和内存)。声明可以请求特定的大小和访问模式(例如,可以以读/写一次或 只读多次模式挂载)

集群管理员创建一些 PV。它们带有可供群集用户使用的实际存储的细节。它们存在于 Kubernetes API 中,可用于消费
当管理员创建的静态 PV 都不匹配用户的 PersistentVolumeClaim 时,集群可能会尝试动态地为 PVC 创建卷。此配置基于 StorageClasses :PVC 必须请求 [存储类],并且管理员必须创建并配置该类才能进行动态创建。声明该类为 "" 可以有效地禁用其动态配置要启用基于存储级别的动态存储配置,集群管理员需要启用 API server 上的 DefaultStorageClass [准入控制器]。例如,通过确保 DefaultStorageClass 位于 API server 组件的 --admission-control 标志,使用逗号分隔的有序值列表中,可以完成此操作
master 中的控制环路监视新的 PVC,寻找匹配的 PV(如果可能),并将它们绑定在一起。如果为新的 PVC 动态调配 PV,则该环路将始终将该 PV 绑定到 PVC。否则,用户总会得到他们所请求的存储,但是容量可能超出要求的数量。一旦 PV 和 PVC 绑定后, PersistentVolumeClaim 绑定是排他性的,不管它们是如何绑定的。 PVC 跟PV 绑定是一对一的映射
PVC 保护的目的是确保由 pod 正在使用的 PVC 不会从系统中移除,因为如果被移除的话可能会导致数据丢失当启用PVC 保护 alpha 功能时,如果用户删除了一个 pod 正在使用的 PVC,则该 PVC 不会被立即删除。PVC 的删除将被推迟,直到 PVC 不再被任何 pod 使用
PersistentVolume 类型以插件形式实现。Kubernetes 目前支持以下插件类型:GCEPersistentDisk AWSElasticBlockStore AzureFile AzureDisk FC (Fibre Channel)FlexVolume Flocker NFS iSCSI RBD (Ceph Block Device) CephFSCinder (OpenStack block storage) Glusterfs VsphereVolume Quobyte VolumesHostPath VMware Photon Portworx Volumes ScaleIO Volumes StorageOS
apiVersion: v1kind: PersistentVolumemetadata:name: pv0003spec:capacity:storage: 5GivolumeMode: FilesystemaccessModes:- ReadWriteOncepersistentVolumeReclaimPolicy: RecyclestorageClassName: slowmountOptions:- hard- nfsvers=4.1nfs:path: /tmpserver: 172.17.0.2
PersistentVolume 可以以资源提供者支持的任何方式挂载到主机上。如下表所示,供应商具有不同的功能,每个PV 的访问模式都将被设置为该卷支持的特定模式。例如,NFS 可以支持多个读/写客户端,但特定的 NFS PV 可能以只读方式导出到服务器上。每个 PV 都有一套自己的用来描述特定功能的访问模式
ReadWriteOnce——该卷可以被单个节点以读/写模式挂载ReadOnlyMany——该卷可以被多个节点以只读模式挂载ReadWriteMany——该卷可以被多个节点以读/写模式挂载在命在命令行中,访问模式缩写为:RWO - ReadWriteOnceROX - ReadOnlyManyRWX - ReadWriteMany

Retain(保留)——手动回收Recycle(回收)——基本擦除( rm -rf /thevolume/* )Delete(删除)——关联的存储资产(例如 AWS EBS、GCE PD、Azure Disk 和 OpenStack Cinder 卷)将被删除当前,只有 NFS 和 HostPath 支持回收策略。AWS EBS、GCE PD、Azure Disk 和 Cinder 卷支持删除策略
卷可以处于以下的某种状态:Available(可用)——一块空闲资源还没有被任何声明绑定Bound(已绑定)——卷已经被声明绑定Released(已释放)——声明被删除,但是资源还未被集群重新声明Failed(失败)——该卷的自动回收失败命令行会显示绑定到 PV 的 PVC 的名称
login node04.flyfish 配置nfs 服务----yum install -y nfs* nfs-utils rpcbindmkdir /nfschmod 777 /nfschown nfsnobody /nfscat /etc/exports/nfs *(rw,no_root_squash,no_all_squash,sync)systemctl start rpcbindsystemctl start nfs

k8s 所有节点安装nfs 客户端的挂载包login : node01.flyfishyum install rpcbind nfs-utilsmkdir /testshowmount -e 192.168.100.14mount -t nfs 192.168.100.14:/nfs /test




配置pvvim pv.yaml---apiVersion: v1kind: PersistentVolumemetadata:name: nfspv1spec:capacity:storage: 10GiaccessModes:- ReadWriteOncepersistentVolumeReclaimPolicy: RetainstorageClassName: nfsnfs:path: /nfsserver: 192.168.100.14---kubectl apply -f pv.yamlkubectl get pv


多创建几个nfs pv----login: node04.flyfishmkdir /nfs1 /nfs2 /nfs3chmod 777 /nfs1 /nfs2 /nfs3vim /etc/exportfs---/nfs *(rw,no_root_squash,no_all_squash,sync)/nfs1 *(rw,no_root_squash,no_all_squash,sync)/nfs2 *(rw,no_root_squash,no_all_squash,sync)/nfs3 *(rw,no_root_squash,no_all_squash,sync)---service rpcbind restartservice nfs restartexportfs -V

vim pv1.yaml------apiVersion: v1kind: PersistentVolumemetadata:name: nfspv2spec:capacity:storage: 20GiaccessModes:- ReadOnlyManypersistentVolumeReclaimPolicy: RetainstorageClassName: nfsnfs:path: /nfs1server: 192.168.100.14---apiVersion: v1kind: PersistentVolumemetadata:name: nfspv3spec:capacity:storage: 5GiaccessModes:- ReadWriteOncepersistentVolumeReclaimPolicy: RetainstorageClassName: slownfs:path: /nfs2server: 192.168.100.14---apiVersion: v1kind: PersistentVolumemetadata:name: nfspv4spec:capacity:storage: 10GiaccessModes:- ReadWriteManypersistentVolumeReclaimPolicy: RetainstorageClassName: nfsnfs:path: /nfs3server: 192.168.100.14-----kubectl apply -f pv1.yamlkubectl get pv

创建PVC 应用------vim pvc.yaml---apiVersion: v1kind: Servicemetadata:name: nginxlabels:app: nginxspec:ports:- port: 80name: webclusterIP: Noneselector:app: nginx---apiVersion: apps/v1kind: StatefulSetmetadata:name: webspec:selector:matchLabels:app: nginxserviceName: "nginx"replicas: 3template:metadata:labels:app: nginxspec:containers:- name: nginximage: wangyanglinux/myapp:v1ports:- containerPort: 80name: webvolumeMounts:- name: wwwmountPath: /usr/share/nginx/htmlvolumeClaimTemplates:- metadata:name: wwwspec:accessModes: [ "ReadWriteOnce" ]storageClassName: "nfs"resources:requests:storage: 1Gi---kubectl apply -f pvc.yaml---------kubectl get podkubectl get pvkubectl get pvc



以上可以看出 这个 pvc 的pod 并没用创建 成功 要求的 副本数是3个 只创建了一个 pod, 因为 如果要在 创建pod 必须满足 accessModes: [ "ReadWriteOnce" ] 与 storageClassName: "nfs" 这两个条件 ,但是 所创建的 pv 只有 nfsv1 同时满足 这样的条件 所以 就 只能创建 一个 podkubectl get podkubectl describe pod web-1

如果想 创建成功 必须给 改变pv的类型 与控制权限首先删掉nfspv3 与nfspv4kubectl delete pv nfspv3kubectl delete pv nfspv4

vim pv2.yaml------apiVersion: v1kind: PersistentVolumemetadata:name: nfspv3spec:capacity:storage: 30GiaccessModes:- ReadWriteOncepersistentVolumeReclaimPolicy: RetainstorageClassName: nfsnfs:path: /nfs2server: 192.168.100.14---apiVersion: v1kind: PersistentVolumemetadata:name: nfspv4spec:capacity:storage: 10GiaccessModes:- ReadWriteOncepersistentVolumeReclaimPolicy: RetainstorageClassName: nfsnfs:path: /nfs3server: 192.168.100.14------kubectl apply -f pv2.yamlkubectl get pv

kubectl get pod

kubectl get pvkubectl get pvc

kubectl describe pv nfspv1kubectl describe pv nfspv2kubectl descirbe pv nfspv3kubectl descirbe pv nfspv4




kubectl get pvkubectl get pod -o wide

login node04.flyfishcd /nfsecho aaaaa > index.htmlcd /nfs2echo bbbb >> index.htmlcd /nfs3echo "web2 web2" >> index.html
curl 10.244.1.6curl 10.244.2.8curl 10.244.2.7

kubectl delete pod web-0

3.1匹配 Pod name ( 网络标识 ) 的模式为:$(statefulset名称)-$(序号),比如上面的示例:web-0,web-1,web-23.2 StatefulSet 为每个 Pod 副本创建了一个 DNS 域名,这个域名的格式为: $(podname).(headless servername),也就意味着服务间是通过Pod域名来通信而非 Pod IP,因为当Pod所在Node发生故障时, Pod 会被飘移到其它 Node 上,Pod IP 会发生变化,但是 Pod 域名不会有变化3.3 StatefulSet 使用 Headless 服务来控制 Pod 的域名,这个域名的 FQDN 为:$(servicename).$(namespace).svc.cluster.local,其中,“cluster.local” 指的是集群的域名3.4 根据 volumeClaimTemplates,为每个 Pod 创建一个 pvc,pvc 的命名规则匹配模式:(volumeClaimTemplates.name)-(pod_name),比如上面的 volumeMounts.name=www, Podname=web-[0-2],因此创建出来的 PVC 是 www-web-0、www-web-1、www-web-23.5删除 Pod 不会删除其 pvc,手动删除 pvc 将自动释放 pv





有序部署:部署StatefulSet时,如果有多个Pod副本,它们会被顺序地创建(从0到N-1)并且,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态。有序删除:当Pod被删除时,它们被终止的顺序是从N-1到0。有序扩展:当对Pod执行扩展操作时,与部署一样,它前面的Pod必须都处于Running和Ready状态。
有序删除:

1.稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于 PVC 来实现。2.稳定的网络标识符,即 Pod 重新调度后其 PodName 和 HostName 不变。有序部署,有序扩展,基于 init containers 来实现。3.有序收缩。

先删除 podkubectl delete pod --all在删除svckubectl delete svc --all在删除deploymentkubectl delete deploy --all在删除statefulsetkubectl delete statefulset --all在删除 pvckubectl delete pvc --all删除 pvkubectl delete pv --all然后 在删掉 nfs挂载里面的文件






