您好,登录后才能下订单哦!
MongoDB Auto-Sharding 解决了海量存储和动态扩容的问题但离实际生产环境所需的高可
靠、高可用还有些距离所以有了” Replica Sets + Sharding”的解决方案。
1、Shard:
使用 Replica Sets确保每个数据节点都具有备份、自动容错转移、自动恢复能力。
2、Config:
使用3 个配置服务器确保元数据完整性
3、Route:
使用3 个路由进程实现负载平衡提高客户端接入性能
以下我们配置一个 Replica Sets + Sharding 的环境架构图如下
开放的端口如下
主机 | ip | 服务及端口 |
Server A | 192.168.3.231 | mongod shard1_1:27017 mongod shard2_1:27018 mongod config1:20000 mongs1:30000 |
Server B | 192.168.3.232 | mongod shard1_2:27017 mongod shard2_2:27018 mongod config2:20000 mongs2:30000 |
Server C | 192.168.3.233 | mongod shard1_3:27017 mongod shard2_3:27018 mongod config3:20000 mongs3:30000 |
创建数据目录
在Server A 上:
在Server B 上:
在Server C 上:
配置Replica Sets
1、配置shard1所用到的Replica Sets
在Server A 上:
在Server B 上:
在Server C 上:
用mongo 连接其中一台机器的27017 端口的mongod初始化Replica Sets“shard1”执行:
配置shard2所用到的Replica Sets
在Server A 上:
在Server B 上:
在Server C 上:
用mongo 连接其中一台机器的27018 端口的mongod,初始化Replica Sets “shard2”,执行:
配置3 台Config Server
在Server A、B、C上执行:
配置3 台Route Process
在Server A、B、C上执行:
配置Shard Cluster
激活数据库及集合的分片
验证Sharding正常工作
连接到其中一台机器的端口30000 的mongos 进程,并切换到test 数据库,以便添加测试数据
可以看到Sharding搭建成功了,跟我们期望的结果一致,至此我们就将Replica Sets与Sharding
结合的架构也学习完毕了。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。