mongodb+分片集群+ycsb测试一例

发布时间:2020-09-06 05:33:57 作者:arthur376
来源:网络 阅读:15549

简介

mongodb是很出名的nosql数据库了,属于集合-文档型的特有架构nosql数据库,也是被誉为最像关系型数据库的非关系型数据库,但是不支持事务.

由于mongodb原生就支持分布式架构,所以部署简单,灵活,可伸缩,自动平衡数据结构等优点,继而性能也非常高.所以搭建mongodb来使用的公司,90%都会使用到mongodb集群.

YCSB是Yahoo开发的一个专门用来对新一代数据库进行基准测试的工具。全名是Yahoo! Cloud Serving Benchmark。包括支持的数据库有:cassandra, hbase,mongodb,redis等数据库.YCSB的几大特性:

  1. 支持常见的数据库读写操作,如插入,修改,删除及读取

  2. 多线程支持。YCSB用Java实现,有很好的多线程支持。

  3. 灵活定义场景文件。可以通过参数灵活的指定测试场景,如100%插入, 50%读50%写等等

  4. 数据请求分布方式:支持随机,zipfian(只有小部分的数据得到大部分的访问请求)以及最新数据几种请求分布方式

  5. 可扩展性:可以通过扩展Workload的方式来修改或者扩展YCSB的功能


安装mongodb

个人建议直接装二进制版本就算了,方便简单,编译版就显得略麻烦了.

现在mongodb最新的正式版本是3.6的,个人觉得太新,这编文章测试用的还是3.2的版本,还请各位知照.

总下载地址:


https://www.mongodb.com/download-center?jmp=nav#community


记得是选择community server的版本,然后选取你的操作系统和系统的版本(我这里是rhel的linux),他只显示最新版的下载地址,你要下旧版就要点下面的All Version Binaries.

mongodb+分片集群+ycsb测试一例

然后就有一堆地址,你自己选择需要的版本吧,例如我要下的是这个地址.

#在linux下用wget下载
wget http://downloads.mongodb.org/linux/mongodb-linux-x86_64-rhel70-3.2.18.tgz?_ga=2.240790083.1507844543.1517391237-2141045386.1517391237

下载完成,就开始安装了,因为是二进制版的,很简单就是了.

#先安装下依赖包,因为他是用c写的,主要就是C的东西了
yum -y install gcc gcc-c++ glibc glibc-devel glib2 glib2-devel 
#解压压缩包
tar xf mongodb-linux-x86_64-rhel70-3.2.18.tgz
#把压缩包放到安装目录
mv mongodb-linux-x86_64-rhel70-3.2.18 /usr/local/
#创建安装目录的软连接
ln -sf /usr/local/mongodb-linux-x86_64-rhel70-3.2.18/ /usr/local/mongodb
#创建命令文件的软连接,那就不用加到环境变量了
ln -sf /usr/local/mongodb/bin/* /usr/bin/
#创建用户
useradd mongodb
#创建数据目录文件夹
mkdir -p /data/mongodb/data
#更改文件夹属主权限
chown -R mongodb:mongodb /data/mongodb/
#修改资源限制参数,添加mongodb相关项
vim /etc/security/limits.conf
mongod          soft   nofile         64000
mongod          hard   nofile         64000
mongod          soft   nproc          32000
mongod          hard   nproc          32000

这就安装完成了,后面就是初始化数据库了,初始化之前,必须先有配置文件,二进制版本安装的程序是不带配置文件模板的,所以就要自己编辑了,配置文件存放的位置可以随意,因为启动是需要指定位置的,例如下面这个:

#编辑配置文件,并指定位置
vim /usr/local/mongodb/mongod_data_40001.conf
#数据目录
dbpath=/data/mongodb/data
#日志文件
logpath=/data/mongodb/data/mongodb_data.log
#日志形式为追加到文件后
logappend=true
#端口
port = 40001
#指定访问地址,不指定就是全网,但是在3.6之后必须制定这个参数才能启动.0.0.0.0代表全网匹配
bind_ip = 0.0.0.0
#最大连接数
maxConns = 5000
pidfilepath = /data/mongodb/data/mongo_40001.pid
#日志,redo log
journal = true
#刷写提交机制
journalCommitInterval = 200
#守护进程模式
fork = true
#刷写数据到日志的频率
syncdelay = 60
#存储引擎,3.2之后默认就是wiredTiger
#storageEngine = wiredTiger
#操作日志,单位M
oplogSize = 2000
#命名空间的文件大小,默认16M,最大2G。
nssize = 16
unixSocketPrefix = /tmp
#指定一个数据库一个文件夹,必须在初始化前配置,在已有数据库上新增这个参数会报错
directoryperdb=true
#开启慢查询分析功能,0:关闭,不收集任何数据。1:收集慢查询数据,默认是100毫秒.2:收集所有数据
profile=1
#慢查询的时间,单位ms,超过这个时间将被记录
slowms=200
#是否开启认证模式,不开就不用用户名密码就能登录数据库,测试环境可以不开
#auth = true
#关闭认证模式,和上面的冲突
noauth = true
#指定集群认证文件,没开认证就不用指定,注释关闭即可,需要用openssl来生成
#keyFile  = /data/mongodb/data/keyfile
#标识这台mongodb数据库为分片集群使用
#shardsvr = true
#副本集名称,这里测的是单台,不设置
#replSet=shard1
#是否config端,做集群的配置端使用,后面详细介绍,这里不需要
#configsvr = true
#禁止HTTP状态接口,3.6后不用
nohttpinterface=true
#禁止REST接口-在生产环境下建议不要启用MongoDB的REST接口,,3.6后不用
rest=false
#打开web监控,和上面相反,这里不开了
#httpinterface=true
#rest=true

配置文件有了,就可以初始化启动了,因为我没有开启认证模式,启动就可以使用了.

#开启mongodb的数据端
mongod -f /usr/local/mongodb/mongod_data_40001.conf
about to fork child process, waiting until server is ready for connections.
forked process: 15808
child process started successfully, parent exiting
#来测试一下
mongo --port=40001
MongoDB shell version: 3.2.18
connecting to: 127.0.0.1:40001/test
Server has startup warnings: 
2018-01-31×××1:12:12.537+0800 I CONTROL  [initandlisten] 
> show dbs
local   0.000GB

============分割线开始=============

其实官方是推荐下面这种启动方式,不过我为了方便,就简单化启动了.

#启动之前,要先把文件夹权限确保一下
chown mongodb:mongodb -R /data/mongodb/data/*
#然后关闭numa并使用mongodb用户启动
su - mongodb -s /bin/bash -c "numactl --interleave=all /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/mongod_data_40001.conf"

这种启动方式好处是显然的,对于数据库来说,最怕就是被***提权,然后控制整台机器,所以限制数据库的启动用户是很有意义的.

而numa这个功能,对于大内存应用是很不友好的,会变成性能瓶颈,所以无论是sql还是nosql都最好是关闭了这个功能,那性能就更好一些了.

===========分割线结束==============

然后,这个mongodb数据库就可以正常使用的了,当然,我们不是只使用单台mongodb.

开头也说了,90%的公司使用mongodb都是会使用到集群,在3.4版本之前,一般就用上面的配置就可以搭建集群,但是在3.4之后,如果不在启动的时候指定这是分片端,则分片集群就不能被正常使用.

#标识这台mongodb数据库为分片集群使用
shardsvr = true

只有开启了这个参数,分片集群才会正常使用.

如果,需要加载到服务启动项,就添加以下脚本:

vim /etc/init.d/mongod

#!/bin/sh
#
#mongod - Startup script for mongod
#
# chkconfig: - 85 15
# description: Mongodb database.
# processname: mongod
# Source function library
 . /etc/rc.d/init.d/functions
mongod="/usr/local/mongodb/bin/mongod"
configfile=" -f /etc/mongod.conf"
lockfile=/var/lock/subsys/mongod
 
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then 
   echo never > /sys/kernel/mm/transparent_hugepage/enabled 
fi 
 
if test -f /sys/kernel/mm/transparent_hugepage/defrag; then 
    echo never > /sys/kernel/mm/transparent_hugepage/defrag 
fi
 
ulimit -f unlimited
ulimit -t unlimited
ulimit -v unlimited
ulimit -n 64000
ulimit -m unlimited
ulimit -u 64000
ulimit -l unlimited
 
start()
{
  echo -n $"Starting mongod: "
  daemon --user mongod "$mongod $configfile"
    retval=$?
    echo
    [ $retval -eq 0 ] && touch $lockfile
}
 
stop()
{
  echo -n $"Stopping mongod: "
   $mongod --shutdown $configfile
  retval=$?
  echo
  [ $retval -eq 0 ] && rm -f $lockfile
}
 
restart () {
        stop
        start
}
 
case "$1" in
  start)
    start
    ;;
  stop)
    stop
    ;;
  restart|reload|force-reload)
    restart
    ;;
  condrestart)
    [ -f $lockfile ] && restart || :
    ;;
  status)
    status $mongod
    retval=$?
    ;;
  *)
    echo "Usage: $0 {start|stop|status|restart|reload|force-reload|condrestart}"
    retval=1
esac
exit $retval

这样就可以chkconfig或者systemd了


搭建mongodb分片集群

先来介绍一下架构,需要三个角色,

  1. 配置服务器,config端,需要1台或3台,不能是双数,保存集群和分片的元数据,即各分片包含了哪些数据的信息,配置文件指定configsvr选项.

  2. 路由服务器,router端,随便多少台都行,本身不保存数据,在启动时从配置服务器加载集群信息,开启mongos进程需要知道配置服务器的地址,指定configdb选项.也可以理解为代理端

  3. 分片服务器,sharding端,保存真实数据信息,可以是一个副本集也可以是单独的一台服务器,支持主从故障切换.也可以叫数据端.

总共有8台机器,配置是8核16G的虚拟机.

10.21.1.205    config端(1)+router端(1)

10.21.1.206    sharding端(1)

10.21.1.207    sharding端(1)

10.21.1.208    sharding端(1)

10.21.1.209    sharding端(1)

10.21.1.210    sharding端(1)

10.21.1.211    sharding端(1)

10.21.1.212    sharding端(1)

由于是测试环境,不想纠结太复杂,config端和router端都是一台,当启动router端的时候会抛出一个警告,"只有一台config端的集群建议只用来测试",是的,我就是用来做测试.

sharding端我不打算详细说了,就按照上面安装mongodb的方式去操作并启动就ok,不需要额外的配置,只需要等配置端把他们地址加载就可以,然后就会自动连接并分配数据块起来,暂时也不需要研究其他东西.就是需要一台台去装就比较麻烦一点,各位自行操作.


1.配置并启动config端:

配置服务器也是一个mongod进程,其实也可以按照上面的配置文件来,配置服务器必须开启1个或则3个,开启2个则会报错,

BadValue need either 1 or 3 configdbs

所以要注意数量,这里我就设一个就算了.

#也和上面一样,没有模板,只能自己编辑
vim /usr/local/mongodb/mongod_config_20000.conf
#数据目录,目录名字区分于数据节点
dbpath=/data/mongodb/config/
#日志文件
logpath=/data/mongodb/mongodb_config.log
#日志追加
logappend=true
#端口
port = 20000
#绑定ip,可以限制IP登录,例如bind_ip=10.21.1.208,3.2默认是允许所有ip登入,之后是允许127.0.0.1,只有配置0.0.0.0才是允许所有
bind_ip = 0.0.0.0
#最大连接数
maxConns = 5000
pidfilepath = /data/mongodb/mongo_20000.pid
#日志,redo log
journal = true
#刷写提交机制
journalCommitInterval = 200
#守护进程模式
fork = true
#刷写数据到日志的频率
syncdelay = 60
#存储引擎
#storageEngine = wiredTiger
#操作日志,单位M
oplogSize = 2000
#命名空间的文件大小,默认16M,最大2G。
nssize = 16
#套接字存放位置
unixSocketPrefix = /tmp
#指定一个数据库一个文件夹,必须在初始化前配置,在已有数据库上新增这个参数会报错
directoryperdb=true
#关闭认证模式,config端可以不需要,也视乎你的需求
noauth = true
#是否config端,这里当然是了
configsvr = true
#副本集名称,3.4之前可以不做集群,之后都需要设置config集群才可以使用
replSet=configs

其实和上面只是多了最后一行,标记是config端而已,然后启动.

#启动config端
mongod -f /usr/local/mongodb/mongod_config_20000.conf
about to fork child process, waiting until server is ready for connections.
forked process: 18535
child process started successfully, parent exiting

这里就不需要测试了,因为不需要在这里控制config端,然后看router端.

注意:3.4之后的版本使用分片集群,config端必须使用副本集,不然router端无法启动.


2.配置并启动router端:

路由服务器本身不保存数据,把日志记录一下即可,他都是直接调用config端来使用.而所有客户端程序想要连接mongodb集群,其实就是连接这个router端的端口来使用,并不是连接config端和sharding端,所以也说是类似于代理的形式.

#也和上面一样,没有模板,只能自己编辑
vim /usr/local/mongodb/mongos_route_30000.conf
#日志文件
logpath=/data/mongodb/mongodb_route.log
#日志追加
logappend=true
#端口
port = 30000
#绑定ip,可以限制IP登录,例如bind_ip=10.21.1.208,3.2默认是允许所有ip登入,之后是允许127.0.0.1,只有配置0.0.0.0才是允许所有
bind_ip = 0.0.0.0
#最大连接数
maxConns = 5000
pidfilepath = /data/mongodb/mongo_30000.pid
#指定config端地址,不能使用127.0.0.1,会报错,3.4后config必须是集群,
#还必须在地址前面带上副本集名称,3.0和3.2可以点,例如:configdb=172.25.33.98:20000,单会提示警告
configdb=configs/172.25.33.98:20000,172.25.33.99:20000,172.25.33.101:20000
#守护进程模式 
fork = true

最重要的参数是configdb,指定config端的地址,可以1个或3个,但是不能在其后面带的配置服务器的地址写成localhost或则127.0.0.1,需要设置成其他分片也能访问的地址,即10.21.1.205:20000/20001/20002。否则在添加分片地址的时候会报错.

然后是启动:

#启动方式略有不同,要使用mongos
mongos -f /usr/local/mongodb/mongos_route_30000.conf
2018-02-01×××0:27:26.604+0800 W SHARDING [main] Running a sharded cluster with fewer than 3 config servers should only be done for testing purposes and is not recommended for production.
about to fork child process, waiting until server is ready for connections.
forked process: 6355
child process started successfully, parent exiting

启动完成后会看到个警告,不过这里可以忽略,就是我开头说的,提示你只有一台config的话只建议用来测试.原因就是这台config存储的是各分片的数据块信息,假如这台config挂了,那么各分片之间的数据块就不知道怎么关联了,是一个非常大的安全隐患,所以生产环境一定要保证有3台,最好还是错开在不同的服务器上面,提高安全性.


3.添加和配置分片信息

按上面的步骤启动完毕,那就可以开始配置分片了,当然,前提就是那些sharding端都已经全部部署启动完毕.然后,就登录进去操作了:

#使用客户端像一般登录mongodb那样操作,这里没有认证
mongo --port=30000 --host=10.21.1.205
MongoDB shell version: 3.2.18
connecting to: 10.21.1.205:30000/test
Server has startup warnings: 
2018-02-01×××0:27:26.619+0800 I CONTROL  [main] 
mongos>
#看看现在的状态,现在当然是什么也没有
mongos>sh.status()
--- Sharding Status --- 
  sharding version: {
      "_id" : 1,
      "minCompatibleVersion" : 5,
      "currentVersion" : 6,
      "clusterId" : ObjectId("5a69925ee61d3e7c0519035a")
  }
  shards:
  active mongoses:
      "3.2.18" : 1
  balancer:
    Currently enabled:  yes
    Currently running:  no
    Failed balancer rounds in last 5 attempts:  0
    Migration Results for the last 24 hours: 
        No recent migrations
  databases:

然后,我们来添加分片,sh.addShard("IP:Port")

#添加分片,如此类推
mongos> sh.addShard("10.21.1.206:40001")
{ "shardAdded" : "shard0000", "ok" : 1 }
mongos> sh.addShard("10.21.1.207:40001")
{ "shardAdded" : "shard0001", "ok" : 1 }
mongos> sh.addShard("10.21.1.208:40001") 
{ "shardAdded" : "shard0002", "ok" : 1 }
    .
    .
    .
#全部加完了,看看状态,
mongos>sh.status()
--- Sharding Status --- 
  sharding version: {
      "_id" : 1,
      "minCompatibleVersion" : 5,
      "currentVersion" : 6,
      "clusterId" : ObjectId("5a69925ee61d3e7c0519035a")
  }
  shards:
        {  "_id" : "shard0000",  "host" : "10.21.1.206:40001" }
        {  "_id" : "shard0001",  "host" : "10.21.1.207:40001" }
        {  "_id" : "shard0002",  "host" : "10.21.1.208:40001" }
        {  "_id" : "shard0003",  "host" : "10.21.1.209:40001" }
        {  "_id" : "shard0004",  "host" : "10.21.1.210:40001" }
        {  "_id" : "shard0005",  "host" : "10.21.1.211:40001" }
        {  "_id" : "shard0006",  "host" : "10.21.1.212:40001" }
  active mongoses:
        "3.2.18" : 1
  balancer:
    Currently enabled:  yes
    Currently running:  no
    Failed balancer rounds in last 5 attempts:  0
    Migration Results for the last 24 hours: 
        No recent migrations
  databases:

这个时候,7个分片都添加完毕,不过,现在还没有数据库,所以还要创建数据库和数据库的片键.创建数据库应该还能理解,片键是什么,下面来简单解析一下:

片键必须是一个索引,数据根据这个片键进行拆分分散。通过sh.shardCollection加会自动创建索引。一个自增的片键对写入和数据均匀分布就不是很好,因为自增的片键总会在一个分片上写入,后续达到某个阀值可能会写到别的分片。但是按照片键查询会非常高效。随机片键对数据的均匀分布效果很好。注意尽量避免在多个分片上进行查询。在所有分片上查询,mongos会对结果进行归并排序。也可以说是分片的规则字段了.


=============分割线开始==================

需要特别注意的一点是,有些mongodb是用root启动的,所以数据库的文件权限也是root,这样就可能会造成一种奇葩现象,连接不正常,数据异常等,所以我们要确保数据库文件权限是mongodb的.

#关闭mongodb
killall mongod
#删掉锁文件
rm -rf /data/mongodb/data/*.lock
#更改文件夹权限
chown mongodb:mongodb -R  /data/mongodb/*
#启动
mongod -f /usr/local/mongodb/mongod_data_40001.conf

当然是包括config端的了.

=============分割线结束===================


然后,我们就创建数据库并开启分片功能,一条命令就可以,最后再添加个片键就可以用了,命令是sh.enableSharding("库名")、sh.shardCollection("库名.集合名",{"key":1})

#创建一个ycsb的数据库,并启动他的分片功能
mongos>sh.enableSharding("ycsb")
{ "ok" : 1 }
#添加这个数据库的片键为_id,规则是hash
mongos>sh.shardCollection("ycsb.usertable", {_id:"hashed"})
{ "collectionsharded" : "ycsb.usertable", "ok" : 1 }
###########################################
#假如你已经创建了一个,现在需要重建,那就要先删除旧的数据库了
#mongos> use ycsb
#switched to db ycsb
#mongos> db.dropDatabase()
#{ "dropped" : "ycsb", "ok" : 1 }
#mongos> show dbs
#config  0.013GB
###########################################


==============分割线开始==================

在mongodb单纯创建数据库和表,并不需要另外的create命令操作,只需要直接插入一条数据就好了,也就代表创建成功

#当前没有新的数据库
> show dbs
admin  0.000GB
local  0.000GB
#单纯切换到数据库,也算是新建数据库的了
> use foo
switched to db foo
> db
foo
#但是这个时候,你还是看不到的
> show dbs
admin  0.000GB
local  0.000GB
#插入一条数据,createtmp是要新建的表名,
> db.createtmp.insert({"name":"create database"})
WriteResult({ "nInserted" : 1 })
#你就能看到了
> show dbs
foo            0.000GB
admin            0.000GB
local            0.000GB
#而且你的表也创建好了
> show collections
createtmp

不过,我们如果做分片的话,一开始有表是不合适的,因为要做片键,所以才在这里另外来说这个问题.

==============分割线结束==================


这样添加的原因是后面的ycsb测试工具的需要,他会生成一个名为ycsb的数据库,里面有一个usertable集合(表),然后其中有_id这个列,至于hash规则我想就不解析了.然后,在看看状态:

#看看现在的状态,很长
mongos>sh.status()
--- Sharding Status --- 
  sharding version: {
      "_id" : 1,
      "minCompatibleVersion" : 5,
      "currentVersion" : 6,
      "clusterId" : ObjectId("5a69925ee61d3e7c0519035a")
  }
  shards:
        {  "_id" : "shard0000",  "host" : "10.21.1.206:40001" }
        {  "_id" : "shard0001",  "host" : "10.21.1.207:40001" }
        {  "_id" : "shard0002",  "host" : "10.21.1.208:40001" }
        {  "_id" : "shard0003",  "host" : "10.21.1.209:40001" }
        {  "_id" : "shard0004",  "host" : "10.21.1.210:40001" }
        {  "_id" : "shard0005",  "host" : "10.21.1.211:40001" }
        {  "_id" : "shard0006",  "host" : "10.21.1.212:40001" }
  active mongoses:
        "3.2.18" : 1
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  5
        Last reported error:  Connection refused
        Time of Reported error:  Thu Feb 01 2018 14:26:07 GMT+0800 (CST)
        Migration Results for the last 24 hours: 
  databases:
        {  "_id" : "ycsb",  "primary" : "shard0000",  "partitioned" : true }
                ycsb.usertable
                        shard key: { "_id" : "hashed" }
                        unique: false
                        balancing: true
                        chunks:
                                shard0000    2
                                shard0001    2
                                shard0002    2
                                shard0003    2
                                shard0004    2
                                shard0005    2
                                shard0006    2
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : NumberLong("-7905747460161236400") } on : shard0000 Timestamp(7, 2) 
                        { "_id" : NumberLong("-7905747460161236400") } -->> { "_id" : NumberLong("-6588122883467697000") } on : shard0000 Timestamp(7, 3) 
                        { "_id" : NumberLong("-6588122883467697000") } -->> { "_id" : NumberLong("-5270498306774157600") } on : shard0001 Timestamp(7, 4) 
                        { "_id" : NumberLong("-5270498306774157600") } -->> { "_id" : NumberLong("-3952873730080618200") } on : shard0001 Timestamp(7, 5) 
                        { "_id" : NumberLong("-3952873730080618200") } -->> { "_id" : NumberLong("-2635249153387078800") } on : shard0002 Timestamp(7, 6) 
                        { "_id" : NumberLong("-2635249153387078800") } -->> { "_id" : NumberLong("-1317624576693539400") } on : shard0002 Timestamp(7, 7) 
                        { "_id" : NumberLong("-1317624576693539400") } -->> { "_id" : NumberLong(0) } on : shard0003 Timestamp(7, 8) 
                        { "_id" : NumberLong(0) } -->> { "_id" : NumberLong("1317624576693539400") } on : shard0003 Timestamp(7, 9) 
                        { "_id" : NumberLong("1317624576693539400") } -->> { "_id" : NumberLong("2635249153387078800") } on : shard0004 Timestamp(7, 10) 
                        { "_id" : NumberLong("2635249153387078800") } -->> { "_id" : NumberLong("3952873730080618200") } on : shard0004 Timestamp(7, 11) 
                        { "_id" : NumberLong("3952873730080618200") } -->> { "_id" : NumberLong("5270498306774157600") } on : shard0005 Timestamp(7, 12) 
                        { "_id" : NumberLong("5270498306774157600") } -->> { "_id" : NumberLong("6588122883467697000") } on : shard0005 Timestamp(7, 13) 
                        { "_id" : NumberLong("6588122883467697000") } -->> { "_id" : NumberLong("7905747460161236400") } on : shard0006 Timestamp(7, 14) 
                        { "_id" : NumberLong("7905747460161236400") } -->> { "_id" : { "$maxKey" : 1 } } on : shard0006 Timestamp(7, 15) 
#看看有什么数据库
mongos> show dbs
config    0.007GB
ycsb      0.000GB
#登进目标数据库
mongos> use ycsb
switched to db ycsb
#查看数据库的状态
mongos> db.stats()
{
    "raw" : {
        "10.21.1.206:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.207:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.208:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.209:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.210:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.211:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        },
        "10.21.1.212:40001" : {
            "db" : "ycsb",
            "collections" : 1,
            "objects" : 0,
            "avgObjSize" : 0,
            "dataSize" : 0,
            "storageSize" : 4096,
            "numExtents" : 0,
            "indexes" : 2,
            "indexSize" : 8192,
            "ok" : 1
        }
    },
    "objects" : 0,
    "avgObjSize" : 0,
    "dataSize" : 0,
    "storageSize" : 28672,
    "numExtents" : 0,
    "indexes" : 14,
    "indexSize" : 57344,
    "fileSize" : 0,
    "extentFreeList" : {
        "num" : 0,
        "totalSize" : 0
    },
    "ok" : 1
}

好了,至此,mongodb的分片集群已经搭建好,暂时还没有数据,objects显示是0就是没数据了,各分片也没有数据.

不过,有时候会因为信息太长而导致显示不全,并提示

too many chunks to print, use verbose if you want to force print

那么我们就要用下列命令来显示了,三个都可以,然后就显示全部了,但是更长.

mongos> sh.status({"verbose":1})
mongos> db.printShardingStatus("vvvv")
mongos> printShardingStatus(db.getSisterDB("config"),1)


4.删除分片信息

最后来看删除分片,有添加,就当然有删除了,虽然不是这里的重点, db.runCommand({"removeshard":"mmm"})

#登进管理数据库admin,3.2隐藏了,不过确实存在.
mongos> use admin
switched to db admin
mongos> db
admin
#删除刚才添加的一个分片,注意state状态,是准备删除,将不会有新数据进入该分片
mongos> db.runCommand({"removeshard":"shard0006"})
{
    "msg" : "draining started successfully",
    "state" : "started",
    "shard" : "shard0006",
    "note" : "you need to drop or movePrimary these databases",
    "dbsToMove" : [ ],
    "ok" : 1
}
#这个时候,状态已经改变成draining,但是还没有删除,只是新数据不再写入进去
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
      "_id" : 1,
      "minCompatibleVersion" : 5,
      "currentVersion" : 6,
      "clusterId" : ObjectId("5a69925ee61d3e7c0519035a")
  }
  shards:
        {  "_id" : "shard0000",  "host" : "10.21.1.206:40001" }
        {  "_id" : "shard0001",  "host" : "10.21.1.207:40001" }
        {  "_id" : "shard0002",  "host" : "10.21.1.208:40001" }
        {  "_id" : "shard0003",  "host" : "10.21.1.209:40001" }
        {  "_id" : "shard0004",  "host" : "10.21.1.210:40001" }
        {  "_id" : "shard0005",  "host" : "10.21.1.211:40001" }
        {  "_id" : "shard0006",  "host" : "10.21.1.212:40001",  "draining" : true }
  active mongoses:
        "3.2.18" : 1
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
    .
    .
    .
#再操作一次,这次将会完全删除,
#如果里面没数据,会显示state状态为completed,
mongos> db.runCommand({"removeshard":"shard0006"})
{
    "msg" : "removeshard completed successfully",
    "state" : "completed",
    "shard" : "shard0006",
    "ok" : 1
}
#如果有数据,则会等到迁移完才会执行通过,取决于数据量多不多,显示state状态为ongoing
mongos> db.runCommand({"removeshard":"shard0006"})
{
        "msg" : "draining ongoing",
        "state" : "ongoing",
        "remaining" : {
                "chunks" : NumberLong(2128),
                "dbs" : NumberLong(0)
        },
        "note" : "you need to drop or movePrimary these databases",
        "dbsToMove" : [ ],
        "ok" : 1
}
#删除完毕后,再次查看,id为shard0006的分片已经被删除,
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
      "_id" : 1,
      "minCompatibleVersion" : 5,
      "currentVersion" : 6,
      "clusterId" : ObjectId("5a69925ee61d3e7c0519035a")
  }
  shards:
        {  "_id" : "shard0000",  "host" : "10.21.1.206:40001" }
        {  "_id" : "shard0001",  "host" : "10.21.1.207:40001" }
        {  "_id" : "shard0002",  "host" : "10.21.1.208:40001" }
        {  "_id" : "shard0003",  "host" : "10.21.1.209:40001" }
        {  "_id" : "shard0004",  "host" : "10.21.1.210:40001" }
        {  "_id" : "shard0005",  "host" : "10.21.1.211:40001" }
  active mongoses:
        "3.2.18" : 1
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
    .
    .
    .
#这里显示也没有了该分片地址了
mongos> db.runCommand({ listshards : 1 })
{
    "shards" : [
        {
            "_id" : "shard0000",
            "host" : "10.21.1.206:40001"
        },
        {
            "_id" : "shard0001",
            "host" : "10.21.1.207:40001"
        },
        {
            "_id" : "shard0002",
            "host" : "10.21.1.208:40001"
        },
        {
            "_id" : "shard0003",
            "host" : "10.21.1.209:40001"
        },
        {
            "_id" : "shard0004",
            "host" : "10.21.1.210:40001"
        },
        {
            "_id" : "shard0005",
            "host" : "10.21.1.211:40001"
        }
    ],
    "ok" : 1
}

需要注意的是,不能同时删除两个或以上的分片,只有删除完一个后,另一个才可以开始删除.

另外,分片还有迁移功能,可以是整个迁移或迁移某一个块chunks(sh.moveChunk("db.collection",{块地址},"新片名称")),这里不打算展开来说,日常使用中,这种操作也基本上很少涉及,基本上都让均衡器balancer自己去跑就算了.

需要特别注意的是删除主分片,则需要先迁移走数据库到别的分片,

db.adminCommand({"movePrimary":"ycsb","to":"shard0001"})

这样才能删主分片.

安装删除都完成了,后面来看ycsb要怎么使用了.


搭建ycsb环境

ycsb程序本身是python+java的结合体,是不是很奇怪?主要测试的对象是nosql系列数据库:cassandra, hbase,mongodb,redis这些.程序本身也是二进制版,python其实yum一下也行了,主要就是java了.

由于java的下载地址经常变,包的容量也不少,所以就只给个官方总地址了,去下java se的包就可以了,虽然已经出了9,但是我还是觉得用8就算了.

http://www.oracle.com/technetwork/java/javase/downloads

#安装python环境
yum install -y python python-devel
#安装java
tar xf jdk-8u144-linux-x64.tar.gz
mv jdk1.8.0_144/ /usr/local/ 
ln -sf /usr/local/jdk1.8.0_144/ /usr/local/jdk
#创建java环境变量
vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=/usr/local/jdk/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin
#重载环境变量
source /etc/profile
#测试一下
java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)

前置的环境安装完毕,就来看怎么安装ycsb了,和java有点像,而且还不用做环境变量,其实我觉得也不能叫安装,直接解压就能用了,现在最新版本是ycsb-0.12.0

#下载ycsb
wget https://github.com/brianfrankcooper/YCSB/releases/download/0.12.0/ycsb-0.12.0.tar.gz
#解压
tar xf ycsb-0.12.0.tar.gz
#查看目录结构
ll ycsb-0.12.0
total 12
drwxr-xr-x. 4 root root    46 Jan 30 11:23 accumulo-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 aerospike-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 arangodb-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 asynchbase-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 azuretablestorage-binding
drwxr-xr-x. 2 root root    76 Feb  1 18:01 bin
drwxr-xr-x. 3 root root    34 Jan 30 11:23 cassandra-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 couchbase2-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 couchbase-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 dynamodb-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 elasticsearch-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 geode-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 googlebigtable-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 googledatastore-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 hbase094-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 hbase098-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 hbase10-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 hypertable-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 infinispan-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 jdbc-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 kudu-binding
drwxr-xr-x. 2 root root   170 Jan 30 11:23 lib
-rw-r--r--. 1  501 games 8082 Jan 21  2015 LICENSE.txt
drwxr-xr-x. 3 root root    34 Jan 30 11:23 memcached-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 mongodb-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 nosqldb-binding
-rw-r--r--. 1  501 games  615 Sep 27  2016 NOTICE.txt
drwxr-xr-x. 3 root root    34 Jan 30 11:23 orientdb-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 rados-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 redis-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 rest-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 riak-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 s3-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 solr6-binding
drwxr-xr-x. 3 root root    34 Jan 30 11:23 solr-binding
drwxr-xr-x. 4 root root    46 Jan 30 11:23 tarantool-binding
drwxr-xr-x. 2  501 games  183 Feb  2 11:19 workloads
#和一般程序差不多,bin目录就是命令目录了
ll /opt/ycsb-0.12.0/bin/
total 36
-rw-r--r--. 1 501 games  2672 Nov  1  2016 bindings.properties
-rwxr-xr-x. 1 501 games 12572 Nov  1  2016 ycsb
-rwxr-xr-x. 1 501 games  6431 Sep 30  2016 ycsb.bat
-rwxr-xr-x. 1 501 games  7458 Sep 30  2016 ycsb.sh

其他目录暂时就不研究,不过从字面意思可以理解一些,其实就是各种数据库的驱动.后面来看怎么使用了.


使用ycsb

1.使用简介

使用前,我们要先了解他的命令结构,我们才能知道怎么做才能达到效果.有点类似于测试mysql数据库的sysbench

bin/ycsb load/run/shell mongodb/hbase10/basic.. mongodb.url="mongodb://user:pwd@server1.example.com:9999" -P workloads/workloada -s

第一项,bin/ycsb,就不用解析了,就是命令本身.

第二项,load/run/shell,指定这个命令的作用,加载数据/运行测试/交互界面,类似sysbench

第三项,mongodb/hbase10/basic..指定这次测试使用的驱动,也就是这次究竟测的是什么数据库,有很多选项,可以ycsb --help看到所有

第四项,mongodb.url,指定测试的数据库的认证信息,地址端口和用户密码,这里拿的是mongodb的来做演示

第五项,-P workloads/workloada,指定测试的参数文件,默认有6种测试模板,加一个大模板,都可以vim打开来看,大致为:

    workloada:读写均衡型,50%/50%,Reads/Writes

    workloadb:读多写少型,95%/5%,Reads/Writes

    workloadc:只读型,100%,Reads

    workloadd:读最近写入记录型,95%/5%,Reads/insert

    workloade:扫描小区间型,95%/5%,scan/insert

    workloadf:读写入记录均衡型,50%/50%,Reads/insert

    workload_template:参数列表模板

第六项,-s,每10秒打印报告一次到屏幕,可以ycsb --help看到


2.测试参数解析

看了上面的解析,就可以看出来,问题的重点是第五项,-P workloads/workloada,这里编辑好,那压测效果才会出来,那么里面有些什么呢,西面来看看:

#打开这个文件来看
vim workloads/workloada
#YCSB load(加载元数据)命令的参数,表示加载的记录条数,也就是可用于测试的总记录数。
recordcount=1000000
#YCSB run(运行压力测试)命令的参数,测试的总次数。和maxexecutiontime参数有冲突,谁先完成就中断测试退出,结合下面的增改读扫参数,按比例来操作.
#operationcount=1000000
#测试的总时长,单位为秒,和operationcount参数有冲突,谁先完成就中断测试退出,这里3600秒就代表一小时,也是结合下面的增改读扫参数,按比例来操作.
maxexecutiontime=3600
#java相关参数,指定了workload的实现类为 com.yahoo.ycsb.workloads.CoreWorkload
workload=com.yahoo.ycsb.workloads.CoreWorkload
#表示查询时是否读取记录的所有字段
readallfields=true
#表示读操作的比例,该场景为0.54,即54%
readproportion=0.54
#表示更新操作的比例,该场景为0.2,即20%
updateproportion=0.2
#表示扫描操作的比例,即1%,通常是用来模拟没有索引的查询
scanproportion=0.01
#表示插入操作的比例,即25%
insertproportion=0.25
#表示请求的分布模式,YCSB提供uniform(随机均衡读写),zipfian(偏重读写少量热数据),latest(偏重读写最新数据)三种分布模式
requestdistribution=uniform
#插入文档的顺序方式:哈希(hashed)/随机 (insertorder)
insertorder=hashed
#测试数据的每一个字段的长度,单位字节
fieldlength=2000
#测试数据的每条记录的字段数,也就是说一条记录的总长度是2000*10=20000字节
fieldcount=10
#####################以下是不自带的参数#############################
#把数据库连接地址写到这里,那么输命令的时候就不用输地址了,我这里没有设用户名密码,当然是不需要了
mongodb.url=mongodb://10.21.1.205:30000/ycsb?w=0
#如果你是有很多个mongos的话,就要这样写
#mongodb.url=mongodb://172.25.31.101:30000,172.25.31.102:30000,172.25.31.103:30000/ycsb?w=0
#如果是有用户名密码的话,就要这样写,还记得上面一开始的模板嘛,mongodb://user:pwd@server1.example.com:9999
#mongodb.url=mongodb://ycsbtest:ycsbtest@10.21.1.205:30000/ycsb?w=0
#写安全设置,Unacknowledged(不返回用户是否写入成功{w:0}),Acknowledged(写入到主节点内存就返回写入成功{w:1}),Journaled(写入到主节点journal log才返回写入成功{w:1,j:true}),Replica Acknowledged(写入到所有副本集内存和主节点journal log才返回写入成功{w:2}),Available Write Concern(写入到所有节点journal log才返回写入成功{w:2,j:true}),选项越往后,安全性越高,但是性能越差.
mongodb.writeConcern=acknowledged
#线程数,也就是说100个并发,既然是压测,怎么可能是单线程
threadcount=100

还有一些参数没列出,然后我们得出自己需要的参数文件,这个是100%纯插入1亿条记录的参数文件,如下所示:

#100%纯插入的参数文件
vim workloads/mongotest_in_only
#定个小目标,比如1个亿,插入1亿条文档数据
recordcount=100000000
operationcount=100000000
workload=com.yahoo.ycsb.workloads.CoreWorkload
readallfields=true
readproportion=0
updateproportion=0
scanproportion=0
#只有插入的操作,1就是100%
insertproportion=1
requestdistribution=uniform
insertorder=hashed
fieldlength=250
fieldcount=8
mongodb.url=mongodb://10.21.1.205:30000/ycsb?w=0
mongodb.writeConcern=acknowledged
threadcount=100

每个文档大小大约2KB(fieldlength x fieldcount),数据总大小大概是200G+12G的索引,数量还是比较多,如果是单点,估计是比较难撑,查询也超级慢.但是做了分片的话,程序会自动分配,把他们平均分配到每一个分片中,那么压力就减轻很多了,分布式架构的优势出来了.


3.执行纯插入测试

上面我自己写的配置文件,就是为了做插入测试,总共7个分片,插入1亿条数据,花了两个多小时,看来时间还是要预足够.

#执行下面命令进行插入测试
bin/ycsb load mongodb -P workloads/mongotest_in_only -s > /home/logs/mongo_ycsb20180131-1.log &
/usr/local/jdk/bin/java -cp /opt/ycsb-0.12.0/mongodb-binding/conf:/opt/ycsb-0.12.0/conf:/opt/ycsb-0.12.0/lib/core-0.12.0.jar:/opt/ycsb-0.12.0/lib/htrace-core4-4.1.0-incubating.jar:/opt/ycsb-0.12.0/lib/jackson-mapper-asl-1.9.4.jar:/opt/ycsb-0.12.0/lib/jackson-core-asl-1.9.4.jar:/opt/ycsb-0.12.0/lib/HdrHistogram-2.1.4.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/logback-classic-1.1.2.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/logback-core-1.1.2.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongo-java-driver-3.0.3.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongodb-async-driver-2.0.1.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/slf4j-api-1.6.4.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongodb-binding-0.12.0.jar com.yahoo.ycsb.Client -db com.yahoo.ycsb.db.MongoDbClient -P workloads/mongotest_in_only -s -load
YCSB Client 0.12.0
Command line: -db com.yahoo.ycsb.db.MongoDbClient -P workloads/mongotest_in_only -s -load
Loading workload...
Starting test.
2018-02-02 11:19:40:314 0 sec: 0 operations; est completion in 0 seconds 
2018-02-02 11:19:50:233 10 sec: 57123 operations; 5703.74 current ops/sec; est completion in 4 hours 52 minutes [INSERT: Count=57144, Max=1724415, Min=150, Avg=12858.59, 90=621, 99=416511, 99.9=1072127, 99.99=1367039] 
2018-02-02 11:20:00:218 20 sec: 188182 operations; 13125.59 current ops/sec; est completion in 2 hours 56 minutes [INSERT: Count=131051, Max=2009087, Min=35, Avg=6348.01, 90=206, 99=140159, 99.9=1202175, 99.99=1803263] 
2018-02-02 11:20:11:036 30 sec: 370000 operations; 18181.8 current ops/sec; est completion in 2 hours 14 minutes [INSERT: Count=181818, Max=2965503, Min=30, Avg=5638.81, 90=122, 99=371, 99.9=1506303, 99.99=2301951] 
2018-02-02 11:20:20:223 40 sec: 576572 operations; 20646.88 current ops/sec; est completion in 1 hours 54 minutes [INSERT: Count=206574, Max=4304895, Min=27, Avg=3766.68, 90=109, 99=276, 99.9=1126399, 99.99=1978367] 
2018-02-02 11:20:31:659 51 sec: 747015 operations; 14904.07 current ops/sec; est completion in 1 hours 53 minutes [INSERT: Count=170445, Max=5423103, Min=27, Avg=6511.35, 90=107, 99=276, 99.9=2037759, 99.99=3981311] 
    .
    .
    .
2018-02-02 13:10:50:218 6670 sec: 99794282 operations; 17292.1 current ops/sec; est completion in 14 seconds [CLEANUP: Count=12, Max=3, Min=2, Avg=2.58, 90=3, 99=3, 99.9=3, 99.99=3] [INSERT: Count=172921, Max=1833983, Min=18, Avg=1729.1, 90=50, 99=202, 99.9=783871, 99.99=1312767] 
2018-02-02 13:11:00:218 6680 sec: ×××5363 operations; 13108.1 current ops/sec; est completion in 5 seconds [CLEANUP: Count=16, Max=4, Min=2, Avg=3, 90=4, 99=4, 99.9=4, 99.99=4] [INSERT: Count=131081, Max=1249279, Min=19, Avg=1336.59, 90=54, 99=152, 99.9=607231, 99.99=1011711] 
2018-02-02 13:11:10:218 6690 sec: 99972913 operations; 4755 current ops/sec; est completion in 2 seconds [CLEANUP: Count=5, Max=5, Min=4, Avg=4.2, 90=5, 99=5, 99.9=5, 99.99=5] [INSERT: Count=47550, Max=898559, Min=21, Avg=1097.42, 90=78, 99=136, 99.9=512511, 99.99=825855] 
2018-02-02 13:11:20:218 6700 sec: 99995467 operations; 2255.4 current ops/sec; est completion in 1 seconds [CLEANUP: Count=2, Max=4, Min=4, Avg=4, 90=4, 99=4, 99.9=4, 99.99=4] [INSERT: Count=22554, Max=752127, Min=24, Avg=850.14, 90=68, 99=106, 99.9=500223, 99.99=642559] 
2018-02-02 13:11:23:489 6703 sec: 100000000 operations; 1385.39 current ops/sec; [CLEANUP: Count=1, Max=5411, Min=5408, Avg=5410, 90=5411, 99=5411, 99.9=5411, 99.99=5411] [INSERT: Count=4533, Max=527871, Min=20, Avg=821.06, 90=61, 99=90, 99.9=466175, 99.99=527871]

中间很多行暂时先忽略,因为是会一致输出到运行完毕为止,来看运行解读,每一个项都用分号;来隔开,直接拿例子来说说.这是第二行的数据:

第一个分号前的数值:2018-02-02 11:20:00:218 20 sec: 188182 operations;

    表示"当前的时间,已运行的时间,运行的数据量"三个值,而-s参数默认是每10秒输出一次,直到这1亿数据写完就停止.

第二个分号前的数值:13125.59 current ops/sec;

    表示吞吐量信息,也就是常说的ops值(每秒操作次数),可以用他来做趋势图,看看这个集群的趋势.

后面的所有:est completion in 2 hours 56 minutes [INSERT: Count=131051, Max=2009087, Min=35, Avg=6348.01, 90=206, 99=140159, 99.9=1202175, 99.99=1803263]

    表示预估执行时间,进行了什么操作(这里只有insert),总共操作了多少数据,操作的时间和延时等数据,意义不大,只做参考.


4.执行纯读测试

配置文件和上面可以保持大体一致即可,只修改下面这里

#只读,1即100
readproportion=1
updateproportion=0
scanproportion=0
insertproportion=0

然后就可以执行了

#执行下面命令进行只读测试
bin/ycsb run mongodb -P workloads/mongotest_re_only -s > /home/logs/mongo_ycsb20180201-1.log &
/usr/local/jdk/bin/java -cp /opt/ycsb-0.12.0/mongodb-binding/conf:/opt/ycsb-0.12.0/conf:/opt/ycsb-0.12.0/lib/core-0.12.0.jar:/opt/ycsb-0.12.0/lib/htrace-core4-4.1.0-incubating.jar:/opt/ycsb-0.12.0/lib/jackson-mapper-asl-1.9.4.jar:/opt/ycsb-0.12.0/lib/jackson-core-asl-1.9.4.jar:/opt/ycsb-0.12.0/lib/HdrHistogram-2.1.4.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/logback-classic-1.1.2.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/logback-core-1.1.2.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongo-java-driver-3.0.3.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongodb-async-driver-2.0.1.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/slf4j-api-1.6.4.jar:/opt/ycsb-0.12.0/mongodb-binding/lib/mongodb-binding-0.12.0.jar com.yahoo.ycsb.Client -db com.yahoo.ycsb.db.MongoDbClient -P workloads/mongotest_re_only -s -t
YCSB Client 0.12.0
Command line: -db com.yahoo.ycsb.db.MongoDbClient -P workloads/mongotest_re_only -s -t
Loading workload...
Starting test.
2018-02-02 14:14:03:394 0 sec: 0 operations; est completion in 0 seconds 
2018-02-02 14:14:13:316 10 sec: 52718 operations; 5271.8 current ops/sec; est completion in 5 hours 15 minutes [READ: Count=52726, Max=515839, Min=886, Avg=17807.9, 90=32959, 99=84223, 99.9=215551, 99.99=422655] 
2018-02-02 14:14:23:315 20 sec: 136267 operations; 8354.9 current ops/sec; est completion in 4 hours 4 minutes [READ: Count=83543, Max=71231, Min=740, Avg=11962.2, 90=22063, 99=39167, 99.9=52863, 99.99=65919] 
2018-02-02 14:14:33:315 30 sec: 227979 operations; 9171.2 current ops/sec; est completion in 3 hours 38 minutes [READ: Count=91710, Max=60479, Min=969, Avg=10899.01, 90=18143, 99=29439, 99.9=45055, 99.99=55839] 
2018-02-02 14:14:43:315 40 sec: 319725 operations; 9174.6 current ops/sec; est completion in 3 hours 27 minutes [READ: Count=91747, Max=57215, Min=1036, Avg=10890.33, 90=17919, 99=27007, 99.9=36031, 99.99=49023] 
2018-02-02 14:14:53:318 50 sec: 411156 operations; 9141.27 current ops/sec; est completion in 3 hours 21 minutes [READ: Count=91439, Max=51039, Min=1052, Avg=10932.95, 90=17983, 99=27887, 99.9=37375, 99.99=44639] 
    .
    .
    .
2018-02-02 17:18:53:315 11090 sec: 99690172 operations; 8923 current ops/sec; est completion in 35 seconds [READ: Count=89229, Max=59263, Min=920, Avg=11199.31, 90=18879, 99=30383, 99.9=43423, 99.99=53631] 
2018-02-02 17:19:03:315 11100 sec: 99779154 operations; 8898.2 current ops/sec; est completion in 25 seconds [READ: Count=88982, Max=69119, Min=914, Avg=11232.26, 90=18959, 99=30303, 99.9=42975, 99.99=54751] 
2018-02-02 17:19:13:315 11110 sec: 99868510 operations; 8935.6 current ops/sec; est completion in 15 seconds [READ: Count=89356, Max=72895, Min=720, Avg=11122.55, 90=18591, 99=29871, 99.9=41215, 99.99=48831] [CLEANUP: Count=2, Max=19, Min=5, Avg=12, 90=19, 99=19, 99.9=19, 99.99=19] 
2018-02-02 17:19:23:316 11120 sec: 99956583 operations; 8806.42 current ops/sec; est completion in 5 seconds [READ: Count=88074, Max=67007, Min=886, Avg=9859.62, 90=16527, 99=27039, 99.9=38911, 99.99=51519] [CLEANUP: Count=35, Max=15, Min=4, Avg=5.49, 90=7, 99=15, 99.9=15, 99.99=15] 
2018-02-02 17:19:30:066 11126 sec: 100000000 operations; 6432.15 current ops/sec; [READ: Count=43416, Max=42047, Min=705, Avg=4970.02, 90=8567, 99=16719, 99.9=27343, 99.99=37055] [CLEANUP: Count=63, Max=9311, Min=2, Avg=153.7, 90=6, 99=53, 99.9=9311, 99.99=9311]

和上面差不多,

第一个分号前的数值:2018-02-02 14:14:23:315 20 sec: 136267 operations;

    表示"当前的时间,已运行的时间,运行的数据量"三个值,而-s参数默认是每10秒输出一次,直到这1亿数据写完就停止.

第二个分号前的数值:8354.9 current ops/sec;

    表示吞吐量信息,也就是常说的ops值(每秒操作次数),可以用他来做趋势图,看看这个集群的趋势.

后面的所有:est completion in 4 hours 4 minutes [READ: Count=83543, Max=71231, Min=740, Avg=11962.2, 90=22063, 99=39167, 99.9=52863, 99.99=65919]

    表示预估执行时间,进行了什么操作(这里只有read),总共操作了多少数据,操作的时间和延时等数据,意义不大,只做参考.

其他测试就不一一细说了,各位自己按实际情况配置这个比例即可.


5.结果解读

上面介绍的其实只是-s输出的结果,当然那些结果还是很有参考价值的,但是真正的结果其实是下面这些,

#打开结果文件
vim mongo_ycsb20180202-1.log
mongo client connection created with mongodb://10.21.1.205:30000/ycsb?w=0
[OVERALL], RunTime(ms), 1.112675E7
[OVERALL], Throughput(ops/sec), 8987.350304446492
[TOTAL_GCS_PS_Scavenge], Count, 18117.0
[TOTAL_GC_TIME_PS_Scavenge], Time(ms), 99198.0
[TOTAL_GC_TIME_%_PS_Scavenge], Time(%), 0.891527175500483
[TOTAL_GCS_PS_MarkSweep], Count, 8.0
[TOTAL_GC_TIME_PS_MarkSweep], Time(ms), 254.0
[TOTAL_GC_TIME_%_PS_MarkSweep], Time(%), 0.002282786977329409
[TOTAL_GCs], Count, 18125.0
[TOTAL_GC_TIME], Time(ms), 99452.0
[TOTAL_GC_TIME_%], Time(%), 0.8938099624778125
[READ], Operations, 1.0E8
[READ], AverageLatency(us), 11114.24612337
[READ], MinLatency(us), 672.0
[READ], MaxLatency(us), 515839.0
[READ], 95thPercentileLatency(us), 21871.0
[READ], 99thPercentileLatency(us), 29615.0
[READ], Return=OK, 100000000
[CLEANUP], Operations, 100.0
[CLEANUP], AverageLatency(us), 98.99
[CLEANUP], MinLatency(us), 2.0
[CLEANUP], MaxLatency(us), 9311.0
[CLEANUP], 95thPercentileLatency(us), 10.0
[CLEANUP], 99thPercentileLatency(us), 53.0

关注几个信息:

RunTime(ms):    数据加载所用时间,单位毫秒(ms)

Throughput(ops/sec):    吞吐量,即ops(每秒操作次数)

Operations:    操作的总次数

AverageLatency(us):    平均响应延时,单位是微秒(us)

MinLatency(us):    最小响应时间,单位是微秒(us)

MaxLatency(us):    最大响应时间,单位是微秒(us)

95thPercentileLatency(us):    95%的操作延时,单位是微秒(us)

99thPercentileLatency(us):    99%的操作延时,单位是微秒(us)

Return=OK:    成功返回数,这个值不符合测试要求,则证明测试失败.

[READ]开头的代表只读的操作记录,其他还有例如上面的[insert],[UPDATE]等,

其他可以理解的就是字面意思,不能理解也不需要太过关注.

和其他测试软件一样,这个只能说是基准值,并不是标准值,和真实环境不能全部模拟,所以测试的思维要结合别的测试软件的方法来做.


测试总结

经过对5分片/7分片的1亿/3亿数据的测试来看,其实mongodb的OPS并没有明显提升,但是可以看到cpu负载长期属于低状态,而磁盘压力也没有跑满,内存剩余还算多,所以分片的真正意义是提高了并发能力.

5分片1亿只读数据图表:

单台分片的iops值,


mongodb+分片集群+ycsb测试一例

单台分片磁盘利用率,


mongodb+分片集群+ycsb测试一例


单台分片cpu使用率,


mongodb+分片集群+ycsb测试一例


测试集群ops值,


mongodb+分片集群+ycsb测试一例

测试集群平均延时,单位是微秒(us)


mongodb+分片集群+ycsb测试一例


7分片1亿只读数据图表:

单台分片的iops值,

mongodb+分片集群+ycsb测试一例

单台分片磁盘利用率,

mongodb+分片集群+ycsb测试一例

单台分片cpu使用率,

mongodb+分片集群+ycsb测试一例

测试集群ops值,

mongodb+分片集群+ycsb测试一例

测试集群平均延时,单位是微秒(us)

mongodb+分片集群+ycsb测试一例


7分片3亿只读数据图表:

单台分片的iops值,

mongodb+分片集群+ycsb测试一例

单台分片磁盘利用率,

mongodb+分片集群+ycsb测试一例

单台分片cpu使用率,

mongodb+分片集群+ycsb测试一例

测试集群ops值,

mongodb+分片集群+ycsb测试一例

测试集群平均延时,单位是微秒(us)

mongodb+分片集群+ycsb测试一例


补充信息

1.创建副本集

config端的副本集:

一个架构稳定的分片集群,应该需要多个节点副本集,防止一挂全挂现象,这是对数据安全的基本要求.而上面我们也谈到一点,在3.4版本之后,mongos的启动已经强制使用config端的副本集模式,如果没有副本集,你也是启动不起来的,所以这里特别补充一下.

首先,说说在3.4情况下,我们的config端必须要建立副本集,所以要在config端设置,就是上面强调的一个参数replSet

#打开config的配置文件
vim /usr/local/mongodb/mongod_config_20000.conf
    .
    .
    .
#开启副本集功能,并指定副本集名称为configs
replSet=configs

当然,上面也说了,至少要1个或3个config端,那么我们需要开启三个config端,具体配置不详细解析,也不要吐槽为什么放一起,只是测试而已.

#看一下有多少个配置文件
ll /usr/local/mongodb/
drwxr-xr-x. 2 root root   248 Mar 14 10:21 bin
-rw-r--r--. 1 root root 34520 Feb 23 03:53 GNU-AGPL-3.0
-rw-r--r--. 1 root root   622 Mar 14 14:26 mongod_config_20000.conf
-rw-r--r--. 1 root root   622 Mar 14 14:28 mongod_config_20001.conf
-rw-r--r--. 1 root root   622 Mar 14 14:35 mongod_config_20002.conf
-rw-r--r--. 1 root root   419 Mar 14 14:41 mongos_route_30000.conf
#看一下运行的mongo进程
ps aux |grep mongo
root     17211  1.1  0.7 1718800 60916 ?       Sl   14:36   1:57 mongod -f /usr/local/mongodb/mongod_config_20000.conf
root     17244  1.0  0.7 1551432 58216 ?       Sl   14:36   1:41 mongod -f /usr/local/mongodb/mongod_config_20001.conf
root     17277  1.0  0.7 1551432 57920 ?       Sl   14:36   1:40 mongod -f /usr/local/mongodb/mongod_config_20002.conf
#看一下当前端口情况
ss -ntplu |grep mongo
tcp    LISTEN     0      128       *:20000                 *:*                   users:(("mongod",pid=17211,fd=11))
tcp    LISTEN     0      128       *:20001                 *:*                   users:(("mongod",pid=17244,fd=11))
tcp    LISTEN     0      128       *:20002                 *:*                   users:(("mongod",pid=17277,fd=11))

三台都可以用了,但是也只是创建了而已,关联关系还是要做初始化,就像mysql的change master的意思一样.

#连接其中一台config端
mongo --port 20000
#输入命令,添加关联关系
>config = {_id:"configs",members:[{_id:0, host:"10.21.1.205:20000" },{_id:1, host:"10.21.1.205:20001" },{_id:2, host:"10.21.1.205:20002" }]}
#初始化副本集
rs.initiate(config)

要注意出现 "ok" : 1, 那才是成功初始化,不成功就需要看看哪里出了问题,包括权限.

chown -R mongodb:mongodb /data/mongodb/

然后再次启动,就ok了,那就可以用了,愉快的使用mongos启动router端吧.


节点分片的副本集:

如果是节点分片的副本集则有点不一样,参数是一样要加的.

#编辑配置文件
vim /usr/local/mongodb/mongod_data_40001.conf
    .
    .
    .
#开启副本集功能,并指定副本集名称为shard1
replSet=shard1

这里倒没有强制你用多少个副本集,两个三个十个都可以,只要你觉得有必要,这里也就不详细描述了.但是关联关系,那当然是必须的.

#连接其中一台节点
mongo --port 40001
#进入管理数据库admin
>use admin
#输入命令,添加关联关系,和上面不同的点也是这里,
>config = { _id : "shard1", members : [ {_id : 0, host : "10.21.1.208:40001" }, {_id : 1, host : "10.21.1.208:40002" }, {_id : 2, host : "10.21.1.208:40003" , arbiterOnly: true } ]}
#初始化副本集,这里是一样的
rs.initiate(config)

不同的点就是arbiterOnly参数,表示这个成员为仲裁节点,不接收数据.使用他的原因是当副本集发生故障时,需要一个仲裁机制来决定谁顶上来接收新的数据,属于故障切换机制,还是比较严密的.


节点副本集添加分片:

另外,由于创建了副本集,分片添加有点不一样了,删除倒是一样的,按分片名字就好了.

#副本集模式添加分片的方式
sh.addShard("shard1/10.21.1.208:40001,10.21.1.208:40002,10.21.1.208:40003")



推荐阅读:
  1. MongoDB分片集群部署
  2. Mongodb 分片集群部署

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

mongodb 分片 ycsb

上一篇:Three.js实现3D机房效果

下一篇:获取python文件扩展名和文件名方法

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》