您好,登录后才能下订单哦!
下文给大家带来负载均衡群集含义及工作模式概述,希望能够给大家在实际运用中带来一定的帮助,负载均衡涉及的东西比较多,理论也不多,网上有很多书籍,今天我们就用亿速云在行业内累计的经验来做一个解答。
Cluster,集群,群集
由多台主机构成,但对外只表现为一个整体
使用价格昂贵的小型机,大型机
使用普通服务器构建服务群集
负载均衡群集
高可用群集
高性能运算群集
以提高应用系统的响应能力,尽可能处理更多的访问请求,减少延迟为目标,获得高并发,负载L B )的整体性能
LB的负载分配依赖于主节点的分流算法
以提高应用系统的可靠性,尽可能的减少中断时间为目标,确保服务的连续性,达到高可用( HA )的容错效果
HA的工作方式包括双工和主从两种模式
以提高应用系统的CPU运算速度,扩展资源和分析能力为目标,获得相当于大型,超级计算机的高性能运算(HPC)能力
高性能运算群集的高性能依赖于“分布式运算”,"并行计算” ,通过专用硬件和软件将多个服务器的CPU,内存等资源整合在一起,实现只有大型,超级计算机才具备的计算能力
地址转换
IP隧道
直接路由
简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
服务器节点使用私有IP地址,与负载调度器位于同一一个物理网络,安全性要优于其他两种方式
IP隧道(IP Tunnel)
简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
直接路由(Direct Routing)
简称DR模式,采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
第一层,负载调度器
第二层,服务器池
第三层,共享服务
modprobe ip_vs
cat /proc/net/ip_vs
将受到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器), 均等的对待每一台服务器,而不管服务器实际的连接数和系统负载
根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各节点的负载情况,并动态调整其权重
保证处理能力强的服务器承担更多的访问流量
根据真实服务器已建立的连接数进行分配,将收到的请求优先分配给连接数最少的节点
在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重
权重较高的节点将承担更大比例的活动连接负载
1,创建虚拟服务器
2,添加,删除服务器节点
3,查看群集及节点情况
4,保存负载分配策略
当一个ARP广播发送到LVS-DR群集时,因为负载均衡器和节点服务器都是连接到相同的网络上的,他们都会接受到ARP广播
此时只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播
使用虚接口10:0承载VIP地址设置内核参数arp_ignore=1:系统只响应目的IP为本地IP的ARP请求
keepalived采用vrrp热备份协议,实现Linux服务器的多机热备功能
vrrp,虚拟路由冗余协议,是针对路由器的一种备份解决方案
keepalived可实现多机热备,每个热备组有多台服务器,最常用的就是双机热备
双机热备的故障切换是由虚拟IP地址的漂移来实现,适用于各种应用服务器
看了以上关于负载均衡群集含义及工作模式概述,如果大家还有什么地方需要了解的可以在亿速云行业资讯里查找自己感兴趣的或者找我们的专业技术工程师解答的,亿速云技术工程师在行业内拥有十几年的经验了。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。