您好,登录后才能下订单哦!
这篇文章主要讲解了“RabbitMQ集群如何搭建”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“RabbitMQ集群如何搭建”吧!
erlang安装版本一致
RabbitMQ安装版本一致
以下示例使用 192.168.73.134 和 192.168.73.135 构建 Rabbitmq 集群
RabbitMQ 是用 erlang 开发的。Cluster 非常方便,因为 erlang 本质上是一种分布式语言,但它不支持负载均衡。在第一次模拟考试中,Rabbit模式可以分为三种:单模、共模和镜像模式。
第一次模拟考试:最简单的情况,非集群模式。
普通模式:默认集群模式。
about Queue Message实体只存在于一个节点,A,B这两个节点只有相同的元数据,即队列结构。 当消息进入A节点的Queue中后,consumer从B节点被拉取时,RabbitMQ会临时在A、B之间传递消息,B中的消息实体发送给consumer。 因此消费者尝试连接每个节点并从中获取消息。也就是说,对于同一个逻辑队列,需要在多个节点建立物理队列。否则不管是A还是B的消费者,出口总是在A,会有瓶颈。 这个模型有问题 A 节点故障后, B 节点无法检索到 A 节点中尚未消费的消息实体。 如果消息持久化完成,则等待A节点恢复后才能被消费;如果没有持久化,那么将不会有更多的节点
镜像模式:将需要的队列做成镜像队列,存在于多个节点中。属于RabbitMQ的HA方案。
该模式解决了上述问题。其本质与普通模式的区别在于消息实体会主动在镜像节点之间同步,而不是在镜像节点消费者取数据时临时拉取数据。 这种模式的副作用也很明显。除了降低系统性能外,如果图像队列数量过多,大量消息进入,集群内的网络带宽也会被这种同步通信大量消耗。 因此适用于对可靠性要求较高的场合(后面会详细介绍这种模式,我们目前搭建的环境就属于这种模式)。
(1)集群中的基本概念
RabbitMQ 的集群节点包括内存节点和磁盘节点。
顾名思义,内存节点将所有数据放在内存中,而磁盘节点将数据放在磁盘上。但是,如上所述,如果在传递消息时开启消息持久化,即使是内存节点,数据仍然安全地放置在磁盘上。
RabbitMQ 集群可以共享用户、虚拟主机、队列、交换器等。必须在所有节点上复制所有数据和状态。例外是当前属于创建它的节点的消息队列,尽管它们是可见的并且可以被所有节点读取。RabbitMQ 节点可以动态加入集群。一个节点可以加入集群,也可以从集群环集群进行基本的负载均衡。
集群中有两种类型的节点:
内存节点:只将状态保存到内存(例外:持久队列的持久内容会保存到磁盘)
磁盘节点:将状态保存到内存和磁盘。
内存节点不写入磁盘,但性能优于磁盘节点。在一个集群中,只需要一个磁盘节点来保存状态,
如果集群中只有内存节点,则不能停止,否则所有的状态、消息等都会丢失。
思路:
为了实现RabbitMQ的高可用,我们先搭建普通集群模式,再配置镜像模式,实现高可用。在Rabbit集群前面增加了一个反向代理,生产者和消费者通过反向代理访问RabbitMQ集群。
架构如下:
(2)集群模式配置
step1:局域网配置
在安装好的三个节点服务器中,分别修改/etc/hosts文件1. vim /etc/hosts 192.168.73.134 节点 1 192.168.73.135 节点 2
step2:为不同节点之间的相同认证设置Erlang Cookie
Erlang 集群中每个节点的魔法 cookie 来实现,这个 cookie 存储在 /var/lib/rabbitmq/.erlang.cookie 中,该文件的权限为 400。 因此,必须保证每个节点的 cookie 一致,否则节点之间将无法通信。 从主节点采用 copy 的方式来保持 Cookie 的一致性:1. chmod 777 /var/lib/rabbitmq/.erlang.cookie2. scp -p 22 /var/lib/rabbitmq/.erlang.cookie root@192.168.73.135:/var/lib/rabbitmq/复制后,检查文件的用户、组和权限是否符合要求。如果没有,请修改它。在.erlang.cookie之后恢复,否则可能会遇到错误:3. chown rabbitmq:rabbitmq .erlang.cookie4. chmod 400 /var/lib/rabbitmq/.erlang.cookie
step3:使用-分离运行每个节点
在RabbitMQ重启后设置cookie:1. cd /sbin 2.rabbitmqctl停止3. rabbitmq-server 启动 这里正常重启可能会提示节点实例再次运行。如果出现,使用以下命令启动:1. ps -aux | 格雷厄尔2. kill -9 {pid}3. RABBITMQ_NODE_PORT=5678 RABBITMQ_NODENAME=rabbit@node1 ./rabbitmq-server -detached RABBITMQ_NODE_PORT=5678 RABBITMQ_NODENAME=rabbit@node2 ./rabbitmq-server -detachedps:上面的5678是因为rabbitmq端口改成了5678,而且nodename和hosts的设置是一致的。 依次启动所有节点。
step4:查看各个节点的状态
1.查看启动端口:netstat -lntp 活动 Internet 连接(仅限服务器) Proto Recv-Q Send-Q 本地地址 外地址 状态 PID/程序名称 tcp 0 0 0.0.0.0:4369 0.0.0.0:* 听 27321/epmd tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 760/sshd tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 1066/master tcp 0 0 0.0.0.0:15678 0.0.0.0:* 听 27862/beam.smp tcp 0 0 0.0.0.0:25672 0.0.0.0:* 听 27862/beam.smp tcp6 0 0 :::5678 :::* 听 27862/beam.smp tcp6 0 0 :::8080 :::* 听 964/java tcp6 0 0 :::4369 :::* 听 27321/epmd tcp6 0 0 :::22 :::* LISTEN 760/sshd tcp6 0 0 ::1:25 :::* LISTEN 1066/master tcp6 0 0 127.0.0.1:8005 :::* 听 964/java tcp6 0 0 :::8009 :::* 听 964/java2.查看rabbitmq启动状态: rabbitmqctl -n rabbit1@node1 状态 rabbitmqctl -n rabbit1@node2 状态 3.访问http://bbitraq后台打开后,可以查看网页是否可以访问
step5:创建和部署集群
以rabbit@rabbitmq2和rabbit@rabbitmq1组成集群,rabbitmq2作为内存节点(一个硬盘节点就够了); 兔子MQ2: 1.停止节点2的应用:rabbitmqctl -n rabbit@node2 stop_app 在节点 rabbit@rabbitmq2 上停止兔子应用程序 2.添加节点1作为内存节点rabbitmqctl -n rabbit@node2 join_cluster --ram rabbit@node1 集群节点 rabbit@node2 与 rabbit@node1 3、启动节点2的应用:rabbitmqctl -n rabbit@node2 start_app 起始节点rabbit@node2
step6:查看集群状态
1.查看节点1的集群状态:rabbitmqctl -n rabbit@node1 cluster_status 节点rabbit@node1的集群状态 [{nodes,[{disc,[rabbit@node1]},{ram,[rabbit@node2]}]}, {running_nodes,[rabbit@node1]}, {cluster_name,<<"rabbit@node1">>}, {分区,[]}, {警报,[{rabbit@node1,[]}]}] 2.查看节点2的集群状态:rabbitmqctl -n rabbit@node2 cluster_status 节点rabbit@node2的集群状态 [{nodes,[{disc,[rabbit@node1]},{ram,[rabbit@node2]}]}, {警报,[{rabbit@node1,[]}]}]3.后台查看集群状态:
至此,rabbitmq 集群搭建完毕。
上面配置了RabbitMQ默认的集群模式,但是不保证队列的高可用。虽然可以将切换和绑定复制到集群中的任何节点,但不会复制队列内容。这种模式虽然解决了一些节点压力,但是队列节点宕机直接导致队列无法使用,只能等待重启。因此,需要关闭队列节点,否则故障也可以正常使用。要将队列的内容复制到集群中的每个节点,需要创建一个图像队列。
第一步:添加负载均衡器
在负载均衡器方面,F5的BIG-IP、Radware的AppDirector等商用产品都是硬件架构的产品,可以实现高处理能力。但是这些产品的高价会让人望而却步,所以我们也有软件负载均衡解决方案。互联网公司常用的软件LB有LVS、HAProxy、Nginx等,LVS是内核层产品,主要负责第四层的数据包转发,使用比较复杂。HAProxy 和 Nginx 是应用层产品,但 Nginx 主要用于处理 HTTP,因此选择 HAProxy 作为 RabbitMQ 前端的 lb。
1.安装HAProxy(在192.168.73.136安装在HAProxy上) yum -y 安装haproxy 2.修改haproxy.config进行配置 vim /etc/haproxy/haproxy.config 添加以下配置: 听rabbitmq_cluster 0.0.0.0:5678 模式tcp 平衡循环 服务器rabbitmaster 192.168.73.134:5678 检查inter 2000 上升2 下降3 服务器rabbitslave 192.168.73.135:5678 检查inter 2000 上升2 下降3
修改HaProxy配置后,重启可能会提示端口绑定失败。在这种情况下,请执行以下命令:
setebool -P haproxy_connect_any=1
负载均衡器将监听 192.168.73.136 的 5678 端口,并轮询我们 192.168.73.134 和 192.168.73.135 的 5678 端口这两个节点。这样磁盘节点不会同时受到影响,除了故障。
第二步:配置Rabbitmq策略
在任意节点上执行:
rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}' 上面的命令会将所有队列设置为镜像队列,即队列会被复制到每个节点,每个节点的状态会保持一致
第三步:使用负载服务器发送消息
客户端使用负载服务器172.16.3.110(panyuntao3)发送消息,队列复制到所有节点。到这里我们就完成了RabbitMQ集群的高可用配置。
感谢各位的阅读,以上就是“RabbitMQ集群如何搭建”的内容了,经过本文的学习后,相信大家对RabbitMQ集群如何搭建这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。