kubernetes的详细搭建过程

发布时间:2021-07-28 17:20:16 作者:chen
来源:亿速云 阅读:117

本篇内容主要讲解“kubernetes的详细搭建过程”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“kubernetes的详细搭建过程”吧!

环境说明:

2台机器,167和168,系统都是centos6.5

167上面会跑etcd,flannel,kube-apiserver,kube-controller-manager,kube-scheduler,自己也充当minion,所以也会跑kube-proxy和kubelet  

168上只需要跑etcd,flannel,kube-proxy和kubelet,etcd和flannel是为了打通2台机器的网络

k8s是建立在docker之上的,所以docker是必须的

环境搭建

打通网络

k8s还需要etcd和Flannel的支持,先下载这2个包,注意2台机器都需要下载和执行

wget https://github.com/coreos/etcd/releases/download/v2.2.4/etcd-v2.2.4-linux-amd64.tar.gz
wget https://github.com/coreos/flannel/releases/download/v0.5.5/flannel-0.5.5-linux-amd64.tar.gz

分别解压,然后添加到环境变量

cd etcd-v2.2.4-linux-amd64/
cp etcd etcdctl /usr/bin/
cd flannel-0.5.5/
cp flanneld mk-docker-opts.sh /usr/bin

运行

# 167上运行
etcd -name infra0 -initial-advertise-peer-urls http://172.16.48.167:2380 -listen-peer-urls http://172.16.48.167:2380 -listen-client-urls http://172.16.48.167:2379,http://127.0.0.1:2379 -advertise-client-urls http://172.16.48.167:2379  -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add --data-dir /usr/local/kubernete_test/flanneldata  >> /usr/local/kubernete_test/logs/etcd.log 2>&1 &

# 168上运行
etcd -name infra1 -initial-advertise-peer-urls http://203.130.48.168:2380 -listen-peer-urls http://203.130.48.168:2380 -listen-client-urls http://203.130.48.168:2379,http://127.0.0.1:2379 -advertise-client-urls http://203.130.48.168:2379  -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add   --data-dir /usr/local/kubernete_test/flanneldata  >> /usr/local/kubernete_test/logs/etcd.log 2>&1 &

注意中间的-discovery参数,这是个url地址,我们可以通过访问 https://discovery.etcd.io/new?size=2来获得,size表示minion的数目,我们这里是2,2台机器要用同一个url地址,如果访问这个地址,会发现返回一坨json字符串,这个服务器我们也是可以自己搭建的

这样就启动成功了,然后我们可以在任意一台机器上执行

etcdctl ls
etcdctl cluster-health

来确认已经成功启动,如果有错可以查看日志文件

tail -n 1000 -f /usr/local/kubernete_test/logs/etcd.log

然后在任一台机器上执行

etcdctl set /coreos.com/network/config '{ "Network": "172.17.0.0/16" }'

执行

[root@w ~]# etcdctl ls /coreos.com/network/subnets
/coreos.com/network/subnets/172.17.4.0-24
/coreos.com/network/subnets/172.17.13.0-24
[root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.4.0-24
{"PublicIP":"203.130.48.168"}
[root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.13.0-24
{"PublicIP":"203.130.48.167"}

可以看到167上的网段为172.17.4.13/24

168上的为172.17.14.0/24,我们后面建立的docker容器的IP就分别在这2个网段中

然后2台机器上分别执行

flanneld >> /usr/local/kubernete_test/logs/flanneld.log 2>&1 &

在每个机器上执行: 

mk-docker-opts.sh -i
source /run/flannel/subnet.env
rm /var/run/docker.pid
ifconfig docker0 ${FLANNEL_SUBNET}

然后重启docker

service docker restart

这样2台机器上的容器的网络就打通了,后续可以看到效果

安装和启动k8s

wget https://github.com/kubernetes/kubernetes/releases/download/v1.2.0-alpha.6/kubernetes.tar.gz

然后各种解压

tar zxvf kubernetes.tar.gz cd kubernetes/server
tar zxvf kubernetes-server-linux-amd64.tar.gz   # 这个是我们需要执行命令的包
cd kubernetes/server/bin/

复制命令到环境变量中,这里我只复制了kubectl

cp kubectl /usr/bin/

在167上执行 

./kube-apiserver --address=0.0.0.0  --insecure-port=8080 --service-cluster-ip-range='172.16.48.167/24' --log_dir=/usr/local/kubernete_test/logs/kube --kubelet_port=10250 --v=0 --logtostderr=false --etcd_servers=http://172.16.48.167:2379 --allow_privileged=false  >> /usr/local/kubernete_test/logs/kube-apiserver.log 2>&1 &

./kube-controller-manager  --v=0 --logtostderr=false --log_dir=/usr/local/kubernete_test/logs/kube --master=172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-controller-manager 2>&1 &

./kube-scheduler  --master='172.16.48.167:8080' --v=0  --log_dir=/usr/local/kubernete_test/logs/kube  >> /usr/local/kubernete_test/logs/kube-scheduler.log 2>&1 &

这样就把master跑起来了,

[root@w ~]# kubectl get componentstatuses
NAME                 STATUS    MESSAGE              ERROR
scheduler            Healthy   ok                   
controller-manager   Healthy   ok                   
etcd-0               Healthy   {"health": "true"}   
etcd-1               Healthy   {"health": "true"}

我们可以看到都很健康的在运行

然后我们就阔以愉快的在2台机器上跑minion需要的程序了(注意167同时也是minion)

# 167
./kube-proxy  --logtostderr=false --v=0 --master=http://172.16.48.167:8080   >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 &

./kubelet  --logtostderr=false --v=0 --allow-privileged=false  --log_dir=/usr/local/kubernete_test/logs/kube  --address=0.0.0.0  --port=10250  --hostname_override=172.16.48.167  --api_servers=http://172.16.48.167:8080   >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 &

# 168
./kube-proxy  --logtostderr=false --v=0 --master=http://172.16.48.167:8080   >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 &

./kubelet  --logtostderr=false --v=0 --allow-privileged=false  --log_dir=/usr/local/kubernete_test/logs/kube  --address=0.0.0.0  --port=10250  --hostname_override=172.16.48.97  --api_servers=http://172.16.48.167:8080   >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 &

来确认启动成功

[root@w ~]# kubectl get nodes
NAME            LABELS                                 STATUS    AGE
172.16.48.167   kubernetes.io/hostname=172.16.48.167   Ready     1d
172.16.48.168   kubernetes.io/hostname=172.16.48.168   Ready     18h

2个minion都是Ready

提交命令

k8s支持2种方式,一种是直接通过命令参数的方式,另一种是通过配置文件的方式,配置文件的话支持json和yaml,下面只讲通过命令参数的方式

建立rc和pod

kubectl run nginx --image=nginx --port=80  --replicas=5

这样就建立了一个rc和5个pod

通过以下命令可以查看

kubectl get rc,pods

如果我们手工把建立的pod删掉,k8s会自动重新启动一个,始终确保pod的数目为5

跨机器间的通信

我们分别在167和168上用docker ps来查看,会发现2台机器上分别跑了一下nginx的容器,我们在2台机器上随意找一个容器进入,使用ip a来查看IP地址,会发现167上为172.17.13.0/24中,168为172.17.4.0/24中,我们分别ping对方的IP会发现是可以ping通的,说明网络已经通了,如果宿主机可以连上外网的话,在容器中也是可以访问外网的

如果我们不通过k8来启动容器,而是直接通过docker来启动容器,会发现启动的容器IP端也是在我们上述2个IP段之内的,并且和k8启动的容器的网络是互通的

当然IP端随机分配并且是内网的IP会给我们造成一些困扰

比如我们一般会这样做:通过docker启动容器,然后通过pipework来给其分配固定IP地址,既可以是内网IP也可以是外网IP,辣么,这样的话k8s启动的容器会和他们想通么

答案是通了一半,即通过k8s启动的容器是可以访问pipework设置的容器的内网IP和外网IP,但是反过来不行,pipework设置的容器是不能访问k8s启动的容器的,虽然是这样,但是不影响我们一般的需求,因为我们一般通过k8s启动的容器是web应用,通过pipework设置固定IP的是数据库之类,刚好可以满足从web应用访问数据库的需求

暴露service

kubectl expose rc nginx --port=80 --container-port=9090 --external-ip=x.x.x.168

port参数是容器的端口,因为nginx使用的80,所以这里必须是80

container-port和target-port是一个意思,指的是宿主机转发的端口,可以随意指定一个,也可以不指定

external-ip指的是对外暴露的ip地址,一般用公网IP地址,执行那个命令过后,我们就可以在公网上访问了,但是这里有个问题就是这个IP地址必须是安装了k8s的机器的IP,如果你随便用一个IP是不能访问的,这里也给应用上造成了不便

查看service

kubectl get svc

可以看到CLUSTER_IP和EXTERNAL_IP

到此,相信大家对“kubernetes的详细搭建过程”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

推荐阅读:
  1. kubernetes详细介绍
  2. Kubernetes中的日志详细介绍

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

kubernetes

上一篇:如何使用 mono 编译 .NET Standard 应用

下一篇:怎么用h5实现打火箭小游戏

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》