kubernetes 1.12 从零开始(三): 用 kubeadm 部署多节点集群

Tags: 视频教程  kubernetes 

目录

说明

本系列所有文章可以在系列教程汇总中找到,演示和讲解视频位于网易云课堂·IT技术快速入门学院 课程说明资料QQ交流群Kubernetes1.12从零开始(初):课程介绍与官方文档汇总,探索过程遇到的问题记录在:Kubernetes1.12从零开始(一):遇到的问题与解决方法

这一节在Kubernetes1.12从零开始(二):部署环境准备中设置的虚拟机上部署Kubernetes,用kubeadm部署一个多节点的kubernetes集群。

本系列所有文章可以在系列教程汇总中找到,Kubernetes1.12从零开始(一):遇到的问题与解决方法记录了探索过程遇到的问题。

使用kubeadm部署多节点Kubernetes

Creating a single master cluster with kubeadm是创建多节点Kubernetes的快捷方式。不过kubeadm现在还处于Beta阶段,没有GA(General Availability),预计今年(2018)进入GA状态。

Command line UX              beta
Implementation               beta
Config file API              alpha
Self-hosting                 alpha
kubeadm alpha subcommands    alpha
CoreDNS                      GA
DynamicKubeletConfig         alpha

kubeadm是项目kubernetes的一个命令:cmd/kubeadm,似乎也是kubernetes官方打造的唯一个向生产级别发展的部署工具。

不过,估计没有多少公司会直接用kubeadm部署Kubernetes,我经历的公司都是自己全手动部署,每个组件自己安置、自己配置参数,用ansible等运维工具进行批量部署、管理。

了解一下kubeadm的用法,也不会少点什么,毕竟是社区发力的部署工具,以后或许会成为标准工具。 Kubeadm和kubernetes的其它组件一起发布的(本来就是kubernetes项目中的一部分),支持部署v1.12.x版本的kubernetes。

安装docker、kubelet、kubeadm

Installing kubeadm中介绍了kubeadm的安装方法,要求每个机器至少2G内存,2个CPU,我设置的虚拟机用了1G内存也勉强能跑起来。

单独的一个kubeadm不能工作,每个机器上还需要安装有docker、kubelet,kubectl可选。

从kubernetes1.6.0以后支持CRI,不一定非要用Docker,这里还是选用Docker,毕竟用Docker的还是大多数。

安装docker

Docker的版本发布计划与安装方法见moby、docker-ce与docker-ee,这里直接用yum安装CentOS默认的Docker:

yum install -y docker
systemctl start  docker
systemctl enable docker.service

安装kubeadm、kubelet

安装kubeadm、kubelet和kubectl,这三个命令可以自己编译或者下载编译好的kubernetes文件。

这里使用Google提供的yum源,直接用yum命令安装,如果不是CentOS系统参考: Ubuntu和其它操作系统中的安装方法

注意这里用到的Google的源需要翻_qiang才能访问。

执行下面的命令,创建kubernetes.repo

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
exclude=kube*
EOF

关闭Selinux:

setenforce 0
sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config

在CentOS7上还需要设置一下内核参数,防止流量被错误转发:

cat <<EOF >  /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

然后安装:

# 默认安装最新版本的kubernetes
yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes

最后启动kubelet:

systemctl enable kubelet && systemctl start kubelet

kubelet的用途

解释一下为什么在每个机器上都安装kubelet。

kubelet是node上的agent,它负责根据指示启动、关停容器,是一个持续运行的后台服务。

它除了执行kubernetes的master下发的任务外,还会加载本地/etc/kubernetes/manifests/目录中的Kubernetes任务,也就是static pod。

kubeadm使用的部署方式中,master组件apiservercontroller-managerscheduler,以及依赖的etcd等,被做成了static pod,用kubelet启动。

因此master节点上也需要安装kubelet,kubeadm初始化master之后,会在master的/etc/kubernetes/manifests目录中看到static pod的yaml文件。

创建kubernetes集群

用kubeadm创建kuberntes集群,分为初始化master和添加node两步。

kubeadm现在也支持部署多个master节点的Kubernetes集群了,多个master目的是提高可用性,Creating Highly Available Clusters with kubeadm中介绍操作过程。

这个过程简单说,就是在三台机器上部署三次…,下面先部署一个单master的kubernetes集群。

初始化master

用node1作为master,直接在node1上执行kubeadm init,需要注意几个参数。

第一个重要参数是--pod-network-cidr,指定Pod要使用的网段,指定方法根据选用的网络插件而定。

之前主要用calico,后来发现有不少公司用flannel,这里就直接演示flannel。哪个网络插件好,这个不好说,calico和flannel都有用于生产。网络插件这方面属于SDN领域,是一个可以宏篇大论的领域。

根据网络插件中的建议选用10.244.0.0/16(根据你自己的情况设置):

--pod-network-cidr=10.244.0.0/16

第二个重要参数是--apiserver-advertise-address,这个非常重要,特别是在我们这个环境中。

我们这里使用的环境中,每个虚拟机有两个网卡,一个是默认带有的NAT网卡,是虚拟机用来联通外网的,另一个是我们在准备环境时添加的host网卡。

查看一下每个node上的网卡会发现,每个NAT网卡的IP都是10.0.2.15/24,不能用这个网卡的IP作为每个组件的服务地址,需要明确指定使用第二个网卡。

因此需要指定第二个网卡的IP:

--apiserver-advertise-address=192.168.33.11

最终,命令如下:

kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=192.168.33.11 --node-name=master1

这个命令执行过程中,可能会出报错,直接按照提示解决就可以了,譬如遇到这样一个错误:

[root@localhost vagrant]#  kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=192.168.33.11
[init] using Kubernetes version: v1.12.1
[preflight] running pre-flight checks
[preflight] Some fatal errors occurred:
	[ERROR Swap]: running with swap on is not supported. Please disable swap
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`

不支持swap,直接Google找一下swap禁用的方法

swapoff -a

一个不好的消息是,kubeadm在执行的时候,要拉取docker镜像,需要翻_qiang….

可以执行在init之前先将镜像下载下来:

kubeadm config images pull

kubeamd的代码中显示 镜像仓库地址是可以指定的,默认是需要翻-qiang才能访问的k8s.gcr.io,可以在配置文件中修改:

imageRepository: "k8s.gcr.io"

配置文件的坑先不踩,一是kubeadm现在是beta3阶段,文档还不全,二是不想在工具上用太多时间,三是找到翻_qiang的方法是必须的。

kubeadm init过程如果出错,将出错原因处理后,可以直接重新执行,如果重新执行提示文件已经存在之类的,执行下面的命令恢复初始状态:

kubeadm reset

master初始化成功以后,会显示下面的信息:

...
[bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes master has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of machines by running the following on each node
as root:

  kubeadm join 192.168.33.11:6443 --token 32j47g.i6dc2vn30uwpq93e --discovery-token-ca-cert-hash sha256:ec51f99cf5e66d5615a5ada7707bdb50fe6b4573a083dc8dc25790c934cd5883

其中最重要的是最后一行:

  kubeadm join 192.168.33.11:6443 --token 32j47g.i6dc2vn30uwpq93e --discovery-token-ca-cert-hash sha256:ec51f99cf5e66d5615a5ada7707bdb50fe6b4573a083dc8dc25790c934cd5883

这是将node添加到kubernetes中的方法。

操作一下master

按照提示执行下面三个命令:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

然后就可以使用kubectl命令了:

$ kubectl get cs
NAME                 STATUS    MESSAGE              ERROR
controller-manager   Healthy   ok
scheduler            Healthy   ok
etcd-0               Healthy   {"health": "true"}

$ kubectl get ns
NAME          STATUS   AGE
default       Active   6m6s
kube-public   Active   6m6s
kube-system   Active   6m6s

需要修改一下kubelet的配置文件,用--node-ip明确指定IP,默认使用第一个网卡的IP:

$cat /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--node-ip=192.168.33.11"

改动后需要重启,确保node的ip是正确的(网络插件没安装之前,master1会是NotReady状态):

$ kubectl get node  -o wide
NAME      STATUS     ROLES    AGE     VERSION   INTERNAL-IP     EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION               CONTAINER-RUNTIME
master1   NotReady   master   8m14s   v1.12.1   192.168.33.11   <none>        CentOS Linux 7 (Core)   3.10.0-862.14.4.el7.x86_64   docker://18.3.1

安装网络插件,这里使用flannel:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/bc79dd1505b0c8681ece4de4c0d86c5cd2643275/Documentation/kube-flannel.yml

可以看到有多个Pod正在创建中:

$ kubectl get pod  --all-namespaces
NAMESPACE     NAME                                            READY   STATUS     RESTARTS   AGE
kube-system   coredns-576cbf47c7-ww8bz                        0/1     Pending    0          20m
kube-system   coredns-576cbf47c7-x9bhv                        0/1     Pending    0          20m
kube-system   etcd-localhost.localdomain                      1/1     Running    0          19m
kube-system   kube-apiserver-localhost.localdomain            1/1     Running    0          19m
kube-system   kube-controller-manager-localhost.localdomain   1/1     Running    0          19m
kube-system   kube-flannel-ds-amd64-rhg9b                     0/1     Init:0/1   0          35s
kube-system   kube-proxy-d4rtt                                1/1     Running    0          20m
kube-system   kube-scheduler-localhost.localdomain            1/1     Running    0          19m

在集群中添加node

在一台已经安装docker、kubelet、kubeadm的机器上, 执行下面的命令,将当前机器添加到kubernetes集群中:

kubeadm join 192.168.33.11:6443  --node-name node2 --token 32j47g.i6dc2vn30uwpq93e --discovery-token-ca-cert-hash sha256:ec51f99cf5e66d5615a5ada7707bdb50fe6b4573a083dc8dc25790c934cd5883

这个命令就是master初始化完成时显示的那条命令,多了一个–node-name参数。

这里在node2(192.168.33.12)机器上执行:

$ kubeadm join 192.168.33.11:6443 --node-name node2 --token 32j47g.i6dc2vn30uwpq93e --discovery-token-ca-cert-hash sha256:ec51f99cf5e66d5615a5ada7707bdb50fe6b4573a083dc8dc25790c934cd5883
...
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "localhost.localdomain" as an annotation

This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the master to see this node join the cluster.

同样需要修改一下kubelet的配置文件,用--node-ip明确指定IP,默认使用第一个网卡的IP:

$cat /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--node-ip=192.168.33.12"

修改后重启kubelet:

systemctl restart kubelet

在node1中可以看到新加的node:

[root@localhost vagrant]# kubectl get node -o wide
NAME                    STATUS     ROLES    AGE     VERSION   INTERNAL-IP     EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION               CONTAINER-RUNTIME
master1                 Ready      master   15m     v1.12.1   192.168.33.11   <none>        CentOS Linux 7 (Core)   3.10.0-862.14.4.el7.x86_64   docker://18.3.1
node2                   NotReady   <none>   7s      v1.12.1   192.168.33.12   <none>        CentOS Linux 7 (Core)   3.10.0-862.14.4.el7.x86_64   docker://18.3.1

用同样的方式将node3添加到集群中。

参考

  1. Running Kubernetes Locally via Minikube
  2. Bootstrapping Clusters with kubeadm
  3. Creating a Custom Cluster from Scratch
  4. Kubernetes1.12从零开始(二):部署环境准备
  5. Install Minikube
  6. Install and Set Up kubectl
  7. kubernetes minikube project
  8. Creating a single master cluster with kubeadm
  9. Installing kubeadm
  10. moby、docker-ce与docker-ee
  11. Creating Highly Available Clusters with kubeadm
  12. kubernetes network add-on

kubernetes

  1. kubernetes 使用:多可用区、Pod 部署拓扑与 Topology Aware Routing
  2. kubernetes 扩展:Cloud Controller Manager
  3. kubernetes 准入:操作合法性检查(Admission Control)
  4. kubernetes 鉴权:用户操作权限鉴定(Authorization)
  5. kubernetes 认证:用户管理与身份认证(Authenticating)
  6. kubernetes 开发:代码生成工具
  7. kubernetes 扩展:operator 开发
  8. kubernetes 扩展:CRD 的使用方法
  9. kubernetes configmap 热加载,inotifywatch 监测文件触发热更新
  10. kubernetes 扩展:扩展点和方法(api/cr/plugin...)
  11. kubernetes 调度组件 kube-scheduler 1.16.3 源代码阅读指引
  12. kubernetes 代码中的 k8s.io 是怎么回事?
  13. 阅读笔记《不一样的 双11 技术,阿里巴巴经济体云原生实践》
  14. kubernetes ingress-nginx 启用 upstream 长连接,需要注意,否则容易 502
  15. ingress-nginx 的限速功能在 nginx.conf 中的对应配置
  16. kubernetes 中的容器设置透明代理,自动在 HTTP 请求头中注入 Pod 信息
  17. kubernetes ingress-nginx 的测试代码(单元测试+e2e测试)
  18. kubernetes ingress-nginx http 请求复制功能与 nginx mirror 的行为差异
  19. kubernetes 基于 openresty 的 ingress-nginx 的状态和配置查询
  20. kubernetes ingress-nginx 0.25 源代码走读笔记
  21. kubernetes ingress-nginx 的金丝雀(canary)/灰度发布功能的使用方法
  22. kubernetes 操作命令 kubectl 在 shell 中的自动补全配置
  23. kubernetes 组件 kube-proxy 的 IPVS 功能的使用
  24. kubernetes initializer 功能的使用方法: 在 Pod 等 Resource 落地前进行修改
  25. kubernetes 版本特性: 新特性支持版本和组件兼容版本
  26. kubernetes API 与 Operator: 不为人知的开发者战争(完整篇)
  27. kubernetes 1.12 从零开始(七): kubernetes开发资源
  28. kubernetes 1.12 从零开始(六): 从代码编译到自动部署
  29. kubernetes 网络方案 Flannel 的学习笔记
  30. kubernetes 1.12 从零开始(五): 自己动手部署 kubernetes
  31. kubernetes 1.12 从零开始(四): 必须先讲一下基本概念
  32. kubernetes 1.12 从零开始(三): 用 kubeadm 部署多节点集群
  33. kubernetes 1.12 从零开始(二): 用 minikube 部署开发测试环境
  34. kubernetes 1.12 从零开始(一): 部署环境准备
  35. kubernetes 1.12 从零开始(零): 遇到的问题与解决方法
  36. kubernetes 1.12 从零开始(初): 课程介绍与官方文档汇总
  37. kubernetes 集群状态监控:通过 grafana 和 prometheus
  38. 一些比较有意思的Kubernetes周边产品
  39. Borg论文阅读笔记
  40. kubelet下载pod镜像时,docker口令文件的查找顺序
  41. kubernetes 的 Client Libraries 的使用
  42. kubernetes的网络隔离networkpolicy
  43. kube-router的源码走读
  44. kubernetes 跨网段通信: 通过 calico 的 ipip 模式
  45. kubernetes的调试方法
  46. kubernetes 与 calico 的衔接过程
  47. 怎样理解 kubernetes 以及微服务?
  48. kubernetes中部署有状态的复杂分布式系统
  49. kubernetes的apiserver的启动过程
  50. kubernetes的api定义与装载
  51. kubernetes的federation部署,跨区Service
  52. kubernetes的编译、打包、发布
  53. kubernetes的第三方包的使用
  54. kubernetes的Storage的实现
  55. kubernetes 的 Apiserver 的 storage 使用
  56. kubernetes的Controller-manager的工作过程
  57. kubernetes的Client端Cache
  58. kubernetes 的 Apiserver 的工作过程
  59. kubernetes的CNI插件初始化与Pod网络设置
  60. kubernetes的Pod变更过程
  61. kubernetes的kubelet的工作过程
  62. kuberntes 的 Cmdline 实现
  63. kubernetes的Pod内挂载的Service Account的使用方法
  64. kubernetes的社区资源与项目参与方式
  65. kubernetes的Kube-proxy的转发规则分析
  66. kubernetes的基本操作
  67. kubernetes在CentOS上的集群部署
  68. kubernetes在CentOS上的All In One部署
  69. 怎样选择集群管理系统?

视频教程

  1. kubernetes 1.12 从零开始(七): kubernetes开发资源
  2. kubernetes 1.12 从零开始(六): 从代码编译到自动部署
  3. kubernetes 1.12 从零开始(五): 自己动手部署 kubernetes
  4. kubernetes 1.12 从零开始(四): 必须先讲一下基本概念
  5. kubernetes 1.12 从零开始(三): 用 kubeadm 部署多节点集群
  6. kubernetes 1.12 从零开始(二): 用 minikube 部署开发测试环境
  7. kubernetes 1.12 从零开始(一): 部署环境准备
  8. kubernetes 1.12 从零开始(零): 遇到的问题与解决方法
  9. kubernetes 1.12 从零开始(初): 课程介绍与官方文档汇总
  10. 【视频】新型监控告警工具prometheus(普罗米修斯)入门使用(附视频讲解)
  11. 【视频】超级账本HyperLedger: Fabric Go SDK的使用
  12. 【视频】超级账本HyperLedger: Fabric使用kafka进行区块排序(共识)
  13. 【视频】超级账本HyperLedger: 为Fabric的Peer节点配置CouchDB
  14. 【视频】超级账本HyperLedger: Fabric从1.1.0升级到1.2.0
  15. 【视频】超级账本HyperLedger: 使用Ansible进行Fabric多节点分布式部署(实战)
  16. 【视频】超级账本HyperLedger: Fabric进阶,在已有的Channel中添加新的组织
  17. 【视频】超级账本HyperLedger: Fabric-CA的使用演示(两个组织一个Orderer三个Peer)
  18. 【视频】超级账本HyperLedger: Fabric的全手动、多服务器部署教程
  19. 【视频】超级账本HyperLedger: Fabric nodejs SDK的使用
  20. 超级账本HyperLedger: Fabric部署过程时遇到的问题汇总
  21. 【视频】8元小课之自动化运维工具ansible(二): 文档阅读摘要
  22. 【视频】8元小课之自动化运维工具ansible(一): 使用入门

推荐阅读

Copyright @2011-2019 All rights reserved. 转载请添加原文连接,合作请加微信lijiaocn或者发送邮件: [email protected],备注网站合作

友情链接:  系统软件  程序语言  运营经验  水库文集  网络课程  微信网文  发现知识星球