在kubernetes中,pod是应用程序的载体,我们可以通过pod的ip来访问应用程序,但是pod的ip地址不是固定的,这也就意味着不方便直接采用pod的ip对服务进行访问 。
为了解决这个问题,kubernetes提供了Service资源,Service会对提供同一个服务的多个pod进行聚合,并且提供一个统一的入口地址 。通过访问Service的入口地址就能访问到后面的pod服务 。
Service在很多情况下只是一个概念 , 真正起作用的其实是kube-proxy服务进程,每个Node节点上都运行着一个kube-proxy服务进程 。当创建Service的时候会通过api-server向etcd写入创建的service的信息,而kube-proxy会基于监听的机制发现这种Service的变动,然后它会将最新的Service信息转换成对应的访问规则 。
10.97.97.97:80 是service提供的访问入口当访问这个入口的时候,可以发现后面有三个pod的服务在等待调用,kube-proxy会基于rr(轮询)的策略,将请求分发到其中一个pod上去这个规则会同时在集群内的所有节点上都生成,所以在任何一个节点上访问都可以 。
如果显示没有这个命令报错了
你就用这一堆语句装一下yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools gitcat <<EOF> /etc/sysconfig/modules/ipvs.modules
userspace模式下,kube-proxy会为每一个Service创建一个监听端口 , 发向Cluster IP的请求被Iptables规则重定向到kube-proxy监听的端口上,kube-proxy根据LB算法选择一个提供服务的Pod并和其建立链接,以将请求转发到Pod上 。该模式下,kube-proxy充当了一个四层负责均衡器的角色 。由于kube-proxy运行在userspace中,在进行转发处理时会增加内核和用户空间之间的数据拷贝,虽然比较稳定 , 但是效率比较低 。
iptables 模式
iptables模式下 , kube-proxy为service后端的每个Pod创建对应的iptables规则,直接将发向Cluster IP的请求重定向到一个Pod IP 。该模式下kube-proxy不承担四层负责均衡器的角色,只负责创建iptables规则 。该模式的优点是较userspace模式效率更高 , 但不能提供灵活的LB策略,当后端Pod不可用时也无法进行重试 。
ipvs 模式
ipvs模式和iptables类似,kube-proxy监控Pod的变化并创建相应的ipvs规则 。ipvs相对iptables转发效率更高 。除此以外,ipvs支持更多的LB算法 。
创建deployment.yaml,内容如下:
apiVersion: apps/v1kind: Deploymentmetadata:name: pc-deploymentnamespace: devspec:replicas: 3selector:matchLabels:app: nginx-podtemplate:metadata:labels:app: nginx-podspec:containers:– name: nginximage: nginx:1.17.1ports:– containerPort: 80[root@k8s-master01 ~]
创建service-clusterip.yaml文件
apiVersion: v1kind: Servicemetadata:name: service-clusteripnamespace: devspec:selector:app: nginx-podclusterIP: 10.97.97.97
Endpoint是kubernetes中的一个资源对象,存储在etcd中,用来记录一个service对应的所有pod的访问地址,它是根据service配置文件中selector描述产生的 。
一个Service由一组Pod组成,这些Pod通过Endpoints暴露出来,Endpoints是实现实际服务的端点集合 。换句话说,service和pod之间的联系是通过endpoints实现的 。
负载分发策略
对Service的访问被分发到了后端的Pod上去,目前kubernetes提供了两种负载分发策略:
如果不定义,默认使用kube-proxy的策略 , 比如随机、轮询基于客户端地址的会话保持模式,即来自同一个客户端发起的所有请求都会转发到固定的一个Pod上 此模式可以使在spec中添加
在某些场景中,开发人员可能不想使用Service提供的负载均衡功能,而希望自己来控制负载均衡策略,针对这种情况,kubernetes提供了HeadLiness Service,这类Service不会分配Cluster IP,如果想要访问service,只能通过service的域名进行查询 。
创建service-headliness.yaml
apiVersion: v1kind: Servicemetadata:name: service-headlinessnamespace: devspec:selector:app: nginx-podclusterIP: None
在之前的样例中,创建的Service的ip地址只有集群内部才可以访问,如果希望将Service暴露给集群外部使用,那么就要使用到另外一种类型的Service,称为NodePort类型 。NodePort的工作原理其实就是将service的端口映射到Node的一个端口上,然后就可以通过
创建service-nodeport.yaml
apiVersion: v1kind: Servicemetadata:name: service-nodeportnamespace: devspec:selector:app: nginx-podtype: NodePort
LoadBalancer和NodePort很相似,目的都是向外部暴露一个端口,区别在于LoadBalancer会在集群的外部再来做一个负载均衡设备 , 而这个设备需要外部环境支持的,外部服务发送到这个设备上的请求 , 会被设备负载之后转发到集群中 。
ExternalName类型的Service
ExternalName类型的Service用于引入集群外部的服务,它通过apiVersion: v1kind: Servicemetadata:name: service-externalnamenamespace: devspec:type: ExternalName # service类型externalName: www.baidu.com#改成ip地址也可以# 创建service[root@k8s-master01 ~]# kubectlcreate -f service-externalname.yamlservice/service-externalname created# 域名解析[root@k8s-master01 ~]# dig @10.96.0.10 service-externalname.dev.svc.cluster.localservice-externalname.dev.svc.cluster.local. 30 IN CNAME www.baidu.com.www.baidu.com.30INCNAMEwww.a.shifen.com.www.a.shifen.com.30INA39.156.66.18www.a.shifen.com.30INA39.156.66.14
【service详解】以上就是朝夕生活(www.30zx.com)关于“service详解”的详细内容,希望对大家有所帮助!
猜你喜欢
- 如何优雅处理HTTPS中的证书问题
- PORE的安装教程
- 草原试驾无极500DS,没想到搞出这么多事情
- 谈悬架不谈减震器,键盘车神你露馅了!
- 真空海绵吸盘是什么原理,为何能吸起各种物体
- 夏季胎压不再纠结,随车气泵究竟哪家强!
- 好强大的海绵真空吸盘,有这样的工具,干活真是太轻松了
- 解决U盘拷贝文件速度慢的正确姿势
- 迅雷下载东西时速度一直为零怎么办?详细解决方法双手奉上
