更新時間:2022-09-16 來源:黑馬程序員 瀏覽量:
介紹
容器化部署
隨著Docker技術(shù)的流行,對項目的容器化部署方式越來越流行,容器化部署的優(yōu)點如下:
- 可以保證每個容器擁有自己的文件系統(tǒng)、CPU、內(nèi)存、進(jìn)程空間等
- 運行應(yīng)用程序所需要的資源都被容器包裝,并和底層基礎(chǔ)架構(gòu)解耦
- 容器化的應(yīng)用程序可以跨云服務(wù)商、跨Linux操作系統(tǒng)發(fā)行版進(jìn)行部署
雖然容器化部署可以帶來很多便利,但是也會出現(xiàn)一些問題,比如說:
- 一個容器故障停機(jī)了,怎么樣讓另外一個容器立刻啟動去替補(bǔ)停機(jī)的容器
- 當(dāng)并發(fā)訪問量變大的時候,怎么樣做到橫向擴(kuò)展容器數(shù)量
這些容器管理的問題統(tǒng)稱為容器編排問題,為了解決這些容器編排問題,就產(chǎn)生了一些容器編排技術(shù):
- Swarm:Docker自己的容器編排工具
- Mesos:Apache的一個資源統(tǒng)一管控的工具,需要和Marathon結(jié)合使用
- Kubernetes:Google開源的的容器編排工具
目前為止Kubernetes是最為流行的一種容器編排技術(shù)。
k8s
kubernetes,由于k和s之間有8個字符,所以簡稱k8s,是一個全新的基于容器技術(shù)的分布式架構(gòu)領(lǐng)先方案,是谷歌嚴(yán)格保密十幾年的秘密武器----Borg系統(tǒng)的一個開源版本,于2015年7月發(fā)布第一個正式版本,它的本質(zhì)是**一組服務(wù)器集群**,可以在集群的每個節(jié)點上運行特定的程序,來對節(jié)點中的容器進(jìn)行管理,主要提供了如下主要功能:
- 自我修復(fù):一旦某一個容器崩潰,能夠在1秒中左右迅速啟動新的容器
- 彈性伸縮:可以根據(jù)需要,自動對集群中正在運行的容器數(shù)量進(jìn)行調(diào)整
- 服務(wù)發(fā)現(xiàn):服務(wù)可以通過自動發(fā)現(xiàn)的形式找到它所依賴的服務(wù)
- 負(fù)載均衡:如果一個服務(wù)起動了多個容器,能夠自動實現(xiàn)請求的負(fù)載均衡
- 版本回退:如果發(fā)現(xiàn)新發(fā)布的程序版本有問題,可以立即回退到原來的版本
- 存儲編排:可以根據(jù)容器自身的需求自動創(chuàng)建存儲卷
組件
一個k8s集群主要是由控制節(jié)點(master)、工作節(jié)點(node)構(gòu)成,每個節(jié)點上都會安裝不同的組件。
master:集群的控制平面,負(fù)責(zé)集群的決策 ( 管理 )
> ApiServer: 資源操作的唯一入口,接收用戶輸入的命令,提供認(rèn)證、授權(quán)、API注冊和發(fā)現(xiàn)等機(jī)制
>
> Scheduler: 負(fù)責(zé)集群資源調(diào)度,按照預(yù)定的調(diào)度策略將Pod調(diào)度到相應(yīng)的node節(jié)點上
>
> ControllerManager: 負(fù)責(zé)維護(hù)集群的狀態(tài),比如程序部署安排、故障檢測、自動擴(kuò)展、滾動更新等
>
> Etcd:負(fù)責(zé)存儲集群中各種資源對象的信息
node:集群的數(shù)據(jù)平面,負(fù)責(zé)為容器提供運行環(huán)境 ( 干活 )
> Kubelet: 負(fù)責(zé)維護(hù)容器的生命周期,即通過控制docker,來創(chuàng)建、更新、銷毀容器
>
> KubeProxy: 負(fù)責(zé)提供集群內(nèi)部的服務(wù)發(fā)現(xiàn)和負(fù)載均衡
>
> Docker: 負(fù)責(zé)節(jié)點上容器的各種操作
<img src="assets/image-20200406184656917.png" alt="image-20200406184656917" style="zoom:200%;" />
下面,以部署一個nginx服務(wù)來說明kubernetes系統(tǒng)各個組件調(diào)用關(guān)系:
1.首先要明確,一旦kubernetes環(huán)境啟動之后,master和node都會將自身的信息存儲到etcd數(shù)據(jù)庫中。
2. 一個nginx服務(wù)的安裝請求會首先被發(fā)送到master節(jié)點的apiServer組件。
3. apiServer組件會調(diào)用scheduler組件來決定到底應(yīng)該把這個服務(wù)安裝到哪個node節(jié)點上,
在此時,它會從etcd中讀取各個node節(jié)點的信息,然后按照一定的算法進(jìn)行選擇,并將結(jié)果告知apiServer。
4. apiServer調(diào)用controller-manager去調(diào)度Node節(jié)點安裝nginx服務(wù)。
5. kubelet接收到指令后,會通知docker,然后由docker來啟動一個nginx的pod,
pod是kubernetes的最小操作單元,容器必須跑在pod中至此,
6. 一個nginx服務(wù)就運行了,如果需要訪問nginx,就需要通過kube-proxy來對pod產(chǎn)生訪問的代理。
這樣,外界用戶就可以訪問集群中的nginx服務(wù)了
核心概念
Master:集群控制節(jié)點,每個集群需要至少一個master節(jié)點負(fù)責(zé)集群的管控
Node:工作負(fù)載節(jié)點,由master分配容器到這些node工作節(jié)點上,然后node節(jié)點上的docker負(fù)責(zé)容器的運行
Pod:kubernetes的最小控制單元,容器都是運行在pod中的,一個pod中可以有1個或者多個容器
Controller:控制器,通過它來實現(xiàn)對pod的管理,比如啟動pod、停止pod、伸縮pod的數(shù)量等等
Service:pod對外服務(wù)的統(tǒng)一入口,下面可以維護(hù)者同一類的多個pod
Label:標(biāo)簽,用于對pod進(jìn)行分類,同一類pod會擁有相同的標(biāo)簽
NameSpace:命名空間,用來隔離pod的運行環(huán)境
環(huán)境搭建
主機(jī)準(zhǔn)備
>本次搭建的是一臺Master節(jié)點和多臺Node節(jié)點構(gòu)成的集群
| 作用 | IP地址 | 操作系統(tǒng) | 配置 |
| ------ | --------------- | --------------------------- | ------------------------ |
| Master | 192.168.109.101 | Centos7.5 基礎(chǔ)設(shè)施服務(wù)器 | 2顆CPU 2G內(nèi)存 50G硬盤 |
| Node1 | 192.168.109.102 | Centos7.5 基礎(chǔ)設(shè)施服務(wù)器 | 2顆CPU 2G內(nèi)存 50G硬盤 |
| Node2 | 192.168.109.103 | Centos7.5 基礎(chǔ)設(shè)施服務(wù)器 | 2顆CPU 2G內(nèi)存 50G硬盤 |
環(huán)境初始化
1) 檢查操作系統(tǒng)的版本
# 此方式下安裝kubernetes集群要求Centos版本要在7.5或之上 [root@master ~]# cat /etc/redhat-release CentOS Linux release 7.5.1804 (Core)
2) 主機(jī)名解析
為了方便后面集群節(jié)點間的直接調(diào)用,在這配置一下主機(jī)名解析,企業(yè)中推薦使用內(nèi)部DNS服務(wù)器。
# 主機(jī)名成解析 編輯三臺服務(wù)器的/etc/hosts文件,添加下面內(nèi)容 192.168.109.100 master 192.168.109.101 node1 192.168.109.102 node2
3) 時間同步
kubernetes要求集群中的節(jié)點時間必須精確一致,這里直接使用chronyd服務(wù)從網(wǎng)絡(luò)同步時間。
企業(yè)中建議配置內(nèi)部的時間同步服務(wù)器
# 啟動chronyd服務(wù) [root@master ~]# systemctl start chronyd # 設(shè)置chronyd服務(wù)開機(jī)自啟 [root@master ~]# systemctl enable chronyd # chronyd服務(wù)啟動稍等幾秒鐘,就可以使用date命令驗證時間了 [root@master ~]# date
4) 禁用iptables和firewalld服務(wù)
kubernetes和docker在運行中會產(chǎn)生大量的iptables規(guī)則,為了不讓系統(tǒng)規(guī)則跟它們混淆,直接關(guān)閉系統(tǒng)的規(guī)則
# 1 關(guān)閉firewalld服務(wù) [root@master ~]# systemctl stop firewalld [root@master ~]# systemctl disable firewalld # 2 關(guān)閉iptables服務(wù) [root@master ~]# systemctl stop iptables [root@master ~]# systemctl disable iptables
5) 禁用selinux
selinux是linux系統(tǒng)下的一個安全服務(wù),如果不關(guān)閉它,在安裝集群中會產(chǎn)生各種各樣的奇葩問題
# 編輯 /etc/selinux/config 文件,修改SELINUX的值為disabled # 注意修改完畢之后需要重啟linux服務(wù) SELINUX=disabled
6) 禁用swap分區(qū)
swap分區(qū)指的是虛擬內(nèi)存分區(qū),它的作用是在物理內(nèi)存使用完之后,將磁盤空間虛擬成內(nèi)存來使用
啟用swap設(shè)備會對系統(tǒng)的性能產(chǎn)生非常負(fù)面的影響,因此kubernetes要求每個節(jié)點都要禁用swap設(shè)備
但是如果因為某些原因確實不能關(guān)閉swap分區(qū),就需要在集群安裝過程中通過明確的參數(shù)進(jìn)行配置說明
# 編輯分區(qū)配置文件/etc/fstab,注釋掉swap分區(qū)一行 # 注意修改完畢之后需要重啟linux服務(wù) UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot xfs defaults 0 0 /dev/mapper/centos-home /home xfs defaults 0 0 # /dev/mapper/centos-swap swap swap defaults 0 0
7)修改linux的內(nèi)核參數(shù)
# 修改linux的內(nèi)核參數(shù),添加網(wǎng)橋過濾和地址轉(zhuǎn)發(fā)功能 # 編輯/etc/sysctl.d/kubernetes.conf文件,添加如下配置: net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 # 重新加載配置 [root@master ~]# sysctl -p # 加載網(wǎng)橋過濾模塊 [root@master ~]# modprobe br_netfilter # 查看網(wǎng)橋過濾模塊是否加載成功 [root@master ~]# lsmod | grep br_netfilter
8)配置ipvs功能
在kubernetes中service有兩種代理模型,一種是基于iptables的,一種是基于ipvs的
兩者比較的話,ipvs的性能明顯要高一些,但是如果要使用它,需要手動載入ipvs模塊
# 1 安裝ipset和ipvsadm [root@master ~]# yum install ipset ipvsadmin -y # 2 添加需要加載的模塊寫入腳本文件 [root@master ~]# cat <<EOF > /etc/sysconfig/modules/ipvs.modules #!/bin/bash modprobe -- ip_vs modprobe -- ip_vs_rr modprobe -- ip_vs_wrr modprobe -- ip_vs_sh modprobe -- nf_conntrack_ipv4 EOF # 3 為腳本文件添加執(zhí)行權(quán)限 [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules # 4 執(zhí)行腳本文件 [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules # 5 查看對應(yīng)的模塊是否加載成功 [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
9) 重啟服務(wù)器
上面步驟完成之后,需要重新啟動linux系統(tǒng)
[root@master ~]# reboot
安裝docker
# 1 切換鏡像源 [root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo # 2 查看當(dāng)前鏡像源中支持的docker版本 [root@master ~]# yum list docker-ce --showduplicates # 3 安裝特定版本的docker-ce # 必須指定--setopt=obsoletes=0,否則yum會自動安裝更高版本 [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y # 4 添加一個配置文件 # Docker在默認(rèn)情況下使用的Cgroup Driver為cgroupfs,而kubernetes推薦使用systemd來代替cgroupfs [root@master ~]# mkdir /etc/docker [root@master ~]# cat <<EOF > /etc/docker/daemon.json { "exec-opts": ["native.cgroupdriver=systemd"], "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"] } EOF # 5 啟動docker [root@master ~]# systemctl restart docker [root@master ~]# systemctl enable docker # 6 檢查docker狀態(tài)和版本 [root@master ~]# docker version
安裝k8s
# 由于kubernetes的鏡像源在國外,速度比較慢,這里切換成國內(nèi)的鏡像源 # 編輯/etc/yum.repos.d/kubernetes.repo,添加下面的配置 [kubernetes] name=Kubernetes baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg # 安裝kubeadm、kubelet和kubectl [root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y # 配置kubelet的cgroup # 編輯/etc/sysconfig/kubelet,添加下面的配置 KUBELET_CGROUP_ARGS="--cgroup-driver=systemd" KUBE_PROXY_MODE="ipvs" # 4 設(shè)置kubelet開機(jī)自啟 [root@master ~]# systemctl enable kubelet
準(zhǔn)備集群鏡像
# 在安裝kubernetes集群之前,必須要提前準(zhǔn)備好集群需要的鏡像,所需鏡像可以通過下面命令查看 [root@master ~]# kubeadm config images list # 下載鏡像 # 此鏡像在kubernetes的倉庫中,由于網(wǎng)絡(luò)原因,無法連接,下面提供了一種替代方案 images=( kube-apiserver:v1.17.4 kube-controller-manager:v1.17.4 kube-scheduler:v1.17.4 kube-proxy:v1.17.4 pause:3.1 etcd:3.4.3-0 coredns:1.6.5 ) for imageName in ${images[@]} ; do docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName done
集群初始化
下面開始對集群進(jìn)行初始化,并將node節(jié)點加入到集群中
> 下面的操作只需要在`master`節(jié)點上執(zhí)行即可
# 創(chuàng)建集群 [root@master ~]# kubeadm init \ --kubernetes-version=v1.17.4 \ --pod-network-cidr=10.244.0.0/16 \ --service-cidr=10.96.0.0/12 \ --apiserver-advertise-address=192.168.109.100 # 創(chuàng)建必要文件 [root@master ~]# mkdir -p $HOME/.kube [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
> 下面的操作只需要在`node`節(jié)點上執(zhí)行即可
# 將node節(jié)點加入集群 [root@master ~]# kubeadm join 192.168.109.100:6443 \ --token 8507uc.o0knircuri8etnw2 \ --discovery-token-ca-cert-hash \ sha256:acc37967fb5b0acf39d7598f8a439cc7dc88f439a3f4d0c9cae88e7901b9d3f # 查看集群狀態(tài) 此時的集群狀態(tài)為NotReady,這是因為還沒有配置網(wǎng)絡(luò)插件 [root@master ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION master NotReady master 6m43s v1.17.4 node1 NotReady <none> 22s v1.17.4 node2 NotReady <none> 19s v1.17.4
安裝網(wǎng)絡(luò)插件
kubernetes支持多種網(wǎng)絡(luò)插件,比如flannel、calico、canal等等,任選一種使用即可,本次選擇flannel
> 下面操作依舊只在`master`節(jié)點執(zhí)行即可,插件使用的是DaemonSet的控制器,它會在每個節(jié)點上都運行
# 獲取fannel的配置文件 [root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml # 修改文件中quay.io倉庫為quay-mirror.qiniu.com # 使用配置文件啟動fannel [root@master ~]# kubectl apply -f kube-flannel.yml # 稍等片刻,再次查看集群節(jié)點的狀態(tài) [root@master ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION master Ready master 15m v1.17.4 node1 Ready <none> 8m53s v1.17.4 node2 Ready <none> 8m50s v1.17.4
至此,kubernetes的集群環(huán)境搭建完成
服務(wù)部署
接下來在kubernetes集群中部署一個nginx程序,測試下集群是否在正常工作。
# 部署nginx [root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine # 暴露端口 [root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort # 查看服務(wù)狀態(tài) [root@master ~]# kubectl get pods,service NAME READY STATUS RESTARTS AGE pod/nginx-86c57db685-fdc2k 1/1 Running 0 18m NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 82m service/nginx NodePort 10.104.121.45 <none> 80:30073/TCP 17m # 4 最后在電腦上訪問下部署的nginx服務(wù) ~~~ <img src="assets/image-20200405142656921.png" alt="image-20200405142656921" style="zoom:80%; border:1px solid" />
資源管理
在kubernetes中,所有的內(nèi)容都抽象為資源,用戶需要通過操作資源來管理kubernetes。
kubernetes的本質(zhì)上就是一個集群系統(tǒng),用戶可以在集群中部署各種服務(wù),也就是在kubernetes集群中運行一個個的容器,并將指定的程序跑在容器中。
kubernetes的最小管理單元是pod而不是容器,所以只能將容器放在`Pod`中,而kubernetes一般也不會直接管理Pod,而是通過`Pod控制器`來管理Pod的。
Pod可以提供服務(wù)之后,就要考慮如何訪問Pod中服務(wù),kubernetes提供了`Service`資源實現(xiàn)這個功能。
>k8s提供了三種資源管理方式
- 命令式對象管理:直接使用命令去操作kubernetes資源
`kubectl run nginx-pod --image=nginx:1.17.1 --port=80`
- 命令式對象配置:通過命令配置和配置文件去操作kubernetes資源
`kubectl create/patch -f nginx-pod.yaml`
- 聲明式對象配置:通過apply命令和配置文件去操作kubernetes資源
`kubectl apply -f nginx-pod.yaml`
命令式對象管理
kubectl命令
kubectl是kubernetes集群的命令行工具,通過它能夠?qū)罕旧磉M(jìn)行管理,并能夠在集群上進(jìn)行容器化應(yīng)用的安裝部署。kubectl命令的語法如下:
~~~md
kubectl [command] [type] [name] [flags]
~~~
comand:指定要對資源執(zhí)行的操作,例如create、get、delete
type:指定資源類型,比如deployment、pod、service
name:指定資源的名稱,名稱大小寫敏感
flags:指定額外的可選參數(shù)
# 查看所有pod kubectl get pod # 查看某個pod kubectl get pod pod_name # 查看某個pod,以yaml格式展示結(jié)果 kubectl get pod pod_name -o yaml
下面以一個namespace / pod的創(chuàng)建和刪除簡單演示下命令的使用:
# 創(chuàng)建一個namespace [root@master ~]# kubectl create namespace dev namespace/dev created # 獲取namespace [root@master ~]# kubectl get ns NAME STATUS AGE default Active 21h dev Active 21s kube-node-lease Active 21h kube-public Active 21h kube-system Active 21h # 在此namespace下創(chuàng)建并運行一個nginx的Pod [root@master ~]# kubectl run pod --image=nginx -n dev kubectl run --generator=deployment/apps.v1 is DEPRECATED and will be removed in a future version. Use kubectl run --generator=run-pod/v1 or kubectl create instead. deployment.apps/pod created # 查看新創(chuàng)建的pod [root@master ~]# kubectl get pod -n dev NAME READY STATUS RESTARTS AGE pod-864f9875b9-pcw7x 1/1 Running 0 21s # 刪除指定的pod [root@master ~]# kubectl delete pod pod-864f9875b9-pcw7x pod "pod-864f9875b9-pcw7x" deleted # 刪除指定的namespace [root@master ~]# kubectl delete ns dev namespace "dev" deleted
命令式對象配置
命令式對象配置就是使用命令配合配置文件一起來操作kubernetes資源。
1) 創(chuàng)建一個nginxpod.yaml,內(nèi)容如下:
apiVersion: v1 kind: Namespace metadata: name: dev --- apiVersion: v1 kind: Pod metadata: name: nginxpod namespace: dev spec: containers: - name: nginx-containers image: nginx:1.17.1
2)執(zhí)行create命令,創(chuàng)建資源:
[root@master ~]# kubectl create -f nginxpod.yaml namespace/dev created pod/nginxpod created
此時發(fā)現(xiàn)創(chuàng)建了兩個資源對象,分別是namespace和pod
3)執(zhí)行g(shù)et命令,查看資源:
[root@master ~]# kubectl get -f nginxpod.yaml NAME STATUS AGE namespace/dev Active 18s NAME READY STATUS RESTARTS AGE pod/nginxpod 1/1 Running 0 17s
這樣就顯示了兩個資源對象的信息
4)執(zhí)行delete命令,刪除資源:
[root@master ~]# kubectl delete -f nginxpod.yaml namespace "dev" deleted pod "nginxpod" deleted ~~~ 此時發(fā)現(xiàn)兩個資源對象被刪除了
此時發(fā)現(xiàn)兩個資源對象被刪除了
~~~md
總結(jié):
命令式對象配置的方式操作資源,可以簡單的認(rèn)為:命令 + yaml配置文件(里面是命令需要的各種參數(shù))
~~~
聲明式對象配置
聲明式對象配置跟命令式對象配置很相似,但是它只有一個命令apply。
# 首先執(zhí)行一次kubectl apply -f yaml文件,發(fā)現(xiàn)創(chuàng)建了資源 [root@master ~]# kubectl apply -f nginxpod.yaml namespace/dev created pod/nginxpod created # 再次執(zhí)行一次kubectl apply -f yaml文件,發(fā)現(xiàn)說資源沒有變動 [root@master ~]# kubectl apply -f nginxpod.yaml namespace/dev unchanged pod/nginxpod unchanged
實戰(zhàn)
> 本章節(jié)將介紹如何在kubernetes集群中部署一個nginx服務(wù),并且能夠?qū)ζ溥M(jìn)行訪問。
Namespace
Namespace是kubernetes系統(tǒng)中的一種非常重要資源,它的主要作用是用來實現(xiàn)多套環(huán)境的資源隔離或者多租戶的資源隔離。
默認(rèn)情況下,kubernetes集群中的所有的Pod都是可以相互訪問的。但是在實際中,可能不想讓兩個Pod之間進(jìn)行互相的訪問,那此時就可以將兩個Pod劃分到不同的namespace下。kubernetes通過將集群內(nèi)部的資源分配到不同的Namespace中,可以形成邏輯上的"組",以方便不同的組的資源進(jìn)行隔離使用和管理。
可以通過kubernetes的授權(quán)機(jī)制,將不同的namespace交給不同租戶進(jìn)行管理,這樣就實現(xiàn)了多租戶的資源隔離。此時還能結(jié)合kubernetes的資源配額機(jī)制,限定不同租戶能占用的資源,例如CPU使用量、內(nèi)存使用量等等,來實現(xiàn)租戶可用資源的管理。
kubernetes在集群啟動之后,會默認(rèn)創(chuàng)建幾個namespace
[root@master ~]# kubectl get namespace NAME STATUS AGE default Active 45h # 所有未指定Namespace的對象都會被分配在default命名空間 kube-node-lease Active 45h # 集群節(jié)點之間的心跳維護(hù),v1.13開始引入 kube-public Active 45h # 此命名空間下的資源可以被所有人訪問(包括未認(rèn)證用戶) kube-system Active 45h # 所有由Kubernetes系統(tǒng)創(chuàng)建的資源都處于這個命名空間
下面來看namespace資源的具體操作:
查看
# 1 查看所有的ns 命令:kubectl get ns [root@master ~]# kubectl get ns NAME STATUS AGE default Active 45h kube-node-lease Active 45h kube-public Active 45h kube-system Active 45h # 2 查看指定的ns 命令:kubectl get ns ns名稱 [root@master ~]# kubectl get ns default NAME STATUS AGE default Active 45h # 3 指定輸出格式 命令:kubectl get ns ns名稱 -o 格式參數(shù) # kubernetes支持的格式有很多,比較常見的是wide、json、yaml [root@master ~]# kubectl get ns default -o yaml apiVersion: v1 kind: Namespace metadata: creationTimestamp: "2020-04-05T04:44:16Z" name: default resourceVersion: "151" selfLink: /api/v1/namespaces/default uid: 7405f73a-e486-43d4-9db6-145f1409f090 spec: finalizers: - kubernetes status: phase: Active # 4 查看ns詳情 命令:kubectl describe ns ns名稱 [root@master ~]# kubectl describe ns default Name: default Labels: <none> Annotations: <none> Status: Active # Active 命名空間正在使用中 Terminating 正在刪除命名空間 # ResourceQuota 針對namespace做的資源限制 # LimitRange針對namespace中的每個組件做的資源限制 No resource quota. No LimitRange resource.
創(chuàng)建
[root@master ~]# kubectl create ns dev namespace/dev created
刪除
[root@master ~]# kubectl delete ns dev namespace "dev" deleted
配置方式
首先準(zhǔn)備一個yaml文件:ns-dev.yaml
apiVersion: v1 kind: Namespace metadata: name: dev
然后就可以執(zhí)行對應(yīng)的創(chuàng)建和刪除命令了:
創(chuàng)建:kubectl create -f ns-dev.yaml
刪除:kubectl delete -f ns-dev.yaml
Pod
Pod是kubernetes集群進(jìn)行管理的最小單元,程序要運行必須部署在容器中,而容器必須存在于Pod中。
Pod可以認(rèn)為是容器的封裝,一個Pod中可以存在一個或者多個容器。
<img src="assets/image-20200407121501907.png" alt="image-20200407121501907" style="zoom:80%;" />
kubernetes在集群啟動之后,集群中的各個組件也都是以Pod方式運行的??梢酝ㄟ^下面命令查看:
[root@master ~]# kubectl get pod -n kube-system NAMESPACE NAME READY STATUS RESTARTS AGE kube-system coredns-6955765f44-68g6v 1/1 Running 0 2d1h kube-system coredns-6955765f44-cs5r8 1/1 Running 0 2d1h kube-system etcd-master 1/1 Running 0 2d1h kube-system kube-apiserver-master 1/1 Running 0 2d1h kube-system kube-controller-manager-master 1/1 Running 0 2d1h kube-system kube-flannel-ds-amd64-47r25 1/1 Running 0 2d1h kube-system kube-flannel-ds-amd64-ls5lh 1/1 Running 0 2d1h kube-system kube-proxy-685tk 1/1 Running 0 2d1h kube-system kube-proxy-87spt 1/1 Running 0 2d1h kube-system kube-scheduler-master 1/1 Running 0 2d1h
創(chuàng)建并運行
kubernetes沒有提供單獨運行Pod的命令,都是通過Pod控制器來實現(xiàn)的
# 命令格式: kubectl run (pod控制器名稱) [參數(shù)] # --image 指定Pod的鏡像 # --port 指定端口 # --namespace 指定namespace [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --namespace dev deployment.apps/nginx created
查看pod信息
# 查看Pod基本信息 [root@master ~]# kubectl get pods -n dev NAME READY STATUS RESTARTS AGE nginx-5ff7956ff6-fg2db 1/1 Running 0 43s # 查看Pod的詳細(xì)信息 [root@master ~]# kubectl describe pod nginx-5ff7956ff6-fg2db -n dev Name: nginx-5ff7956ff6-fg2db Namespace: dev Priority: 0 Node: node1/192.168.109.101 Start Time: Wed, 08 Apr 2020 09:29:24 +0800 Labels: pod-template-hash=5ff7956ff6 run=nginx Annotations: <none> Status: Running IP: 10.244.1.23 IPs: IP: 10.244.1.23 Controlled By: ReplicaSet/nginx-5ff7956ff6 Containers: nginx: Container ID: docker://4c62b8c0648d2512380f4ffa5da2c99d16e05634979973449c98e9b829f6253c Image: nginx:1.17.1 Image ID: docker-pullable://nginx@sha256:485b610fefec7ff6c463ced9623314a04ed67e3945b9c08d7e53a47f6d108dc7 Port: 80/TCP Host Port: 0/TCP State: Running Started: Wed, 08 Apr 2020 09:30:01 +0800 Ready: True Restart Count: 0 Environment: <none> Mounts: /var/run/secrets/kubernetes.io/serviceaccount from default-token-hwvvw (ro) Conditions: Type Status Initialized True Ready True ContainersReady True PodScheduled True Volumes: default-token-hwvvw: Type: Secret (a volume populated by a Secret) SecretName: default-token-hwvvw Optional: false QoS Class: BestEffort Node-Selectors: <none> Tolerations: node.kubernetes.io/not-ready:NoExecute for 300s node.kubernetes.io/unreachable:NoExecute for 300s Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled <unknown> default-scheduler Successfully assigned dev/nginx-5ff7956ff6-fg2db to node1 Normal Pulling 4m11s kubelet, node1 Pulling image "nginx:1.17.1" Normal Pulled 3m36s kubelet, node1 Successfully pulled image "nginx:1.17.1" Normal Created 3m36s kubelet, node1 Created container nginx Normal Started 3m36s kubelet, node1 Started container nginx
訪問Pod
# 獲取podIP [root@master ~]# kubectl get pods -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE ... nginx-5ff7956ff6-fg2db 1/1 Running 0 190s 10.244.1.23 node1 ... #訪問POD [root@master ~]# curl http://10.244.1.23:80 <!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> </head> <body> <p><em>Thank you for using nginx.</em></p> </body> </html>
刪除指定Pod
# 刪除指定Pod [root@master ~]# kubectl delete pod nginx-5ff7956ff6-fg2db -n dev pod "nginx-5ff7956ff6-fg2db" deleted # 此時,顯示刪除Pod成功,但是再查詢,發(fā)現(xiàn)又新產(chǎn)生了一個 [root@master ~]# kubectl get pods -n dev NAME READY STATUS RESTARTS AGE nginx-5ff7956ff6-jj4ng 1/1 Running 0 21s # 這是因為當(dāng)前Pod是由Pod控制器創(chuàng)建的,控制器會監(jiān)控Pod狀況,一旦發(fā)現(xiàn)Pod死亡,會立即重建 # 此時要想刪除Pod,必須刪除Pod控制器 # 先來查詢一下當(dāng)前namespace下的Pod控制器 [root@master ~]# kubectl get deploy -n dev NAME READY UP-TO-DATE AVAILABLE AGE nginx 1/1 1 1 9m7s # 接下來,刪除此PodPod控制器 [root@master ~]# kubectl delete deploy nginx -n dev deployment.apps "nginx" deleted # 稍等片刻,再查詢Pod,發(fā)現(xiàn)Pod被刪除了 [root@master ~]# kubectl get pods -n dev No resources found in dev namespace.
配置操作
創(chuàng)建一個pod-nginx.yaml,內(nèi)容如下:
apiVersion: v1 kind: Pod metadata: name: nginx namespace: dev spec: containers: - image: nginx:1.17.1 name: pod ports: - name: nginx-port containerPort: 80 protocol: TCP
然后就可以執(zhí)行對應(yīng)的創(chuàng)建和刪除命令了:
創(chuàng)建:kubectl create -f pod-nginx.yaml
刪除:kubectl delete -f pod-nginx.yaml
Label
Label是kubernetes系統(tǒng)中的一個重要概念。它的作用就是在資源上添加標(biāo)識,用來對它們進(jìn)行區(qū)分和選擇。
Label的特點:
- 一個Label會以key/value鍵值對的形式附加到各種對象上,如Node、Pod、Service等等
- 一個資源對象可以定義任意數(shù)量的Label ,同一個Label也可以被添加到任意數(shù)量的資源對象上去
- Label通常在資源對象定義時確定,當(dāng)然也可以在對象創(chuàng)建后動態(tài)添加或者刪除
可以通過Label實現(xiàn)資源的多維度分組,以便靈活、方便地進(jìn)行資源分配、調(diào)度、配置、部署等管理工作。
> 一些常用的Label 示例如下:
>
> - 版本標(biāo)簽:"version":"release", "version":"stable"......
> - 環(huán)境標(biāo)簽:"environment":"dev","environment":"test","environment":"pro"
> - 架構(gòu)標(biāo)簽:"tier":"frontend","tier":"backend"
標(biāo)簽定義完畢之后,還要考慮到標(biāo)簽的選擇,這就要使用到Label Selector,即:
Label用于給某個資源對象定義標(biāo)識
Label Selector用于查詢和篩選擁有某些標(biāo)簽的資源對象
當(dāng)前有兩種Label Selector:
- 基于等式的Label Selector
name = slave: 選擇所有包含Label中key="name"且value="slave"的對象
env != production: 選擇所有包括Label中的key="env"且value不等于"production"的對象
- 基于集合的Label Selector
name in (master, slave): 選擇所有包含Label中的key="name"且value="master"或"slave"的對象
name not in (frontend): 選擇所有包含Label中的key="name"且value不等于"frontend"的對象
標(biāo)簽的選擇條件可以使用多個,此時將多個Label Selector進(jìn)行組合,使用逗號","進(jìn)行分隔即可。例如:
name=slave,env!=production
name not in (frontend),env!=production
命令方式
# 為pod資源打標(biāo)簽 [root@master ~]# kubectl label pod nginx-pod version=1.0 -n dev pod/nginx-pod labeled # 為pod資源更新標(biāo)簽 [root@master ~]# kubectl label pod nginx-pod version=2.0 -n dev --overwrite pod/nginx-pod labeled # 查看標(biāo)簽 [root@master ~]# kubectl get pod nginx-pod -n dev --show-labels NAME READY STATUS RESTARTS AGE LABELS nginx-pod 1/1 Running 0 10m version=2.0 # 篩選標(biāo)簽 [root@master ~]# kubectl get pod -n dev -l version=2.0 --show-labels NAME READY STATUS RESTARTS AGE LABELS nginx-pod 1/1 Running 0 17m version=2.0 [root@master ~]# kubectl get pod -n dev -l version!=2.0 --show-labels No resources found in dev namespace. #刪除標(biāo)簽 [root@master ~]# kubectl label pod nginx-pod version- -n dev pod/nginx-pod labeled
配置方式
apiVersion: v1 kind: Pod metadata: name: nginx namespace: dev labels: version: "3.0" env: "test" spec: containers: - image: nginx:1.17.1 name: pod ports: - name: nginx-port containerPort: 80 protocol: TCP
然后就可以執(zhí)行對應(yīng)的更新命令了:kubectl apply -f pod-nginx.yaml
Deployment
在kubernetes中,Pod是最小的控制單元,但是kubernetes很少直接控制Pod,一般都是通過Pod控制器來完成的。Pod控制器用于pod的管理,確保pod資源符合預(yù)期的狀態(tài),當(dāng)pod的資源出現(xiàn)故障時,會嘗試進(jìn)行重啟或重建pod。
在kubernetes中Pod控制器的種類有很多,本章節(jié)只介紹一種:Deployment。
<img src="assets/image-20200408193950807.png" alt="image-20200408193950807" style="border: 1px solid; zoom: 80%;" />
命令操作
# 命令格式: kubectl run deployment名稱 [參數(shù)] # --image 指定pod的鏡像 # --port 指定端口 # --replicas 指定創(chuàng)建pod數(shù)量 # --namespace 指定namespace [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --replicas=3 -n dev deployment.apps/nginx created # 查看創(chuàng)建的Pod [root@master ~]# kubectl get pods -n dev NAME READY STATUS RESTARTS AGE nginx-5ff7956ff6-6k8cb 1/1 Running 0 19s nginx-5ff7956ff6-jxfjt 1/1 Running 0 19s nginx-5ff7956ff6-v6jqw 1/1 Running 0 19s # 查看deployment的信息 [root@master ~]# kubectl get deploy -n dev NAME READY UP-TO-DATE AVAILABLE AGE nginx 3/3 3 3 2m42s # UP-TO-DATE:成功升級的副本數(shù)量 # AVAILABLE:可用副本的數(shù)量 [root@master ~]# kubectl get deploy -n dev -o wide NAME READY UP-TO-DATE AVAILABLE AGE CONTAINERS IMAGES SELECTOR nginx 3/3 3 3 2m51s nginx nginx:1.17.1 run=nginx # 查看deployment的詳細(xì)信息 [root@master ~]# kubectl describe deploy nginx -n dev Name: nginx Namespace: dev CreationTimestamp: Wed, 08 Apr 2020 11:14:14 +0800 Labels: run=nginx Annotations: deployment.kubernetes.io/revision: 1 Selector: run=nginx Replicas: 3 desired | 3 updated | 3 total | 3 available | 0 unavailable StrategyType: RollingUpdate MinReadySeconds: 0 RollingUpdateStrategy: 25% max unavailable, 25% max surge Pod Template: Labels: run=nginx Containers: nginx: Image: nginx:1.17.1 Port: 80/TCP Host Port: 0/TCP Environment: <none> Mounts: <none> Volumes: <none> Conditions: Type Status Reason ---- ------ ------ Available True MinimumReplicasAvailable Progressing True NewReplicaSetAvailable OldReplicaSets: <none> NewReplicaSet: nginx-5ff7956ff6 (3/3 replicas created) Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal ScalingReplicaSet 5m43s deployment-controller Scaled up replicaset nginx-5ff7956ff6 to 3 # 刪除 [root@master ~]# kubectl delete deploy nginx -n dev deployment.apps "nginx" deleted
配置操作
創(chuàng)建一個deploy-nginx.yaml,內(nèi)容如下:
apiVersion: apps/v1 kind: Deployment metadata: name: nginx namespace: dev spec: replicas: 3 selector: matchLabels: run: nginx template: metadata: labels: run: nginx spec: containers: - image: nginx:1.17.1 name: nginx ports: - containerPort: 80 protocol: TCP
然后就可以執(zhí)行對應(yīng)的創(chuàng)建和刪除命令了:
創(chuàng)建:kubectl create -f deploy-nginx.yaml
刪除:kubectl delete -f deploy-nginx.yaml
Service
通過上節(jié)課的學(xué)習(xí),已經(jīng)能夠利用Deployment來創(chuàng)建一組Pod來提供具有高可用性的服務(wù)。
雖然每個Pod都會分配一個單獨的Pod IP,然而卻存在如下兩問題:
- Pod IP 會隨著Pod的重建產(chǎn)生變化
- Pod IP 僅僅是集群內(nèi)可見的虛擬IP,外部無法訪問
這樣對于訪問這個服務(wù)帶來了難度。因此,kubernetes設(shè)計了Service來解決這個問題。
Service可以看作是一組同類Pod**對外的訪問接口**。借助Service,應(yīng)用可以方便地實現(xiàn)服務(wù)發(fā)現(xiàn)和負(fù)載均衡。
操作一:創(chuàng)建集群內(nèi)部可訪問的Service
# 暴露Service [root@master ~]# kubectl expose deploy nginx --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n dev service/svc-nginx1 exposed # 查看service [root@master ~]# kubectl get svc svc-nginx -n dev -o wide NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR svc-nginx1 ClusterIP 10.109.179.231 <none> 80/TCP 3m51s run=nginx # 這里產(chǎn)生了一個CLUSTER-IP,這就是service的IP,在Service的生命周期中,這個地址是不會變動的 # 可以通過這個IP訪問當(dāng)前service對應(yīng)的POD [root@master ~]# curl 10.109.179.231:80 <!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> </head> <body> <h1>Welcome to nginx!</h1> ....... </body> </html>
操作二:創(chuàng)建集群外部也可訪問的Service
# 上面創(chuàng)建的Service的type類型為ClusterIP,這個ip地址只用集群內(nèi)部可訪問 # 如果需要創(chuàng)建外部也可以訪問的Service,需要修改type為NodePort [root@master ~]# kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort --port=80 --target-port=80 -n dev service/svc-nginx2 exposed # 此時查看,會發(fā)現(xiàn)出現(xiàn)了NodePort類型的Service,而且有一對Port(80:31928/TC) [root@master ~]# kubectl get svc svc-nginx-1 -n dev -o wide NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR svc-nginx2 NodePort 10.100.94.0 <none> 80:31928/TCP 9s run=nginx # 接下來就可以通過集群外的主機(jī)訪問 節(jié)點IP:31928訪問服務(wù)了 # 例如在的電腦主機(jī)上通過瀏覽器訪問下面的地址 http://192.168.109.100:31928/
刪除Service
[root@master ~]# kubectl delete svc svc-nginx-1 -n dev
配置方式
創(chuàng)建一個svc-nginx.yaml,內(nèi)容如下:
apiVersion: v1 kind: Service metadata: name: svc-nginx namespace: dev spec: clusterIP: 10.109.179.231 ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: ClusterIP
然后就可以執(zhí)行對應(yīng)的創(chuàng)建和刪除命令了:
創(chuàng)建:kubectl create -f svc-nginx.yaml
刪除:kubectl delete -f svc-nginx.yaml
> 小結(jié)
>
> 至此,已經(jīng)掌握了Namespace、Pod、Deployment、Service資源的基本操作,有了這些操作,就可以在kubernetes集群中實現(xiàn)一個服務(wù)的簡單部署和訪問了,但是如果想要更好的使用kubernetes,就需要深入學(xué)習(xí)這幾種資源的細(xì)節(jié)和原理。