mongodb集群有三种方式

1,主从模式,类似MysqL master slave方式。

2,副本集模式,其实是一主多从,如果主节点挂掉,会重新在从节点选取一台为主节点。

3,分片模式,针对大数据量,高负载情况。

MysqL要做到自动扩展需要加一个数据访问层用程序去扩展,数据库的增加、删除、备份还需要程序去控制。一但数据库的节点一多,要维护起来也是非常头疼的。不过mongodb所有的这一切通过他自己的内部机制就可以搞定!顿时石化了,这么牛X!还是上图看看mongodb通过哪些机制实现路由、分片:

wKioL1UsvwCgUF0jAAG8apv8TOY057.jpg

从图中可以看到有四个组件:mongos、config server、shard、replica set。

mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。

config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,这个可不能丢失!就算挂掉其中一台,只要还有存货, mongodb集群就不会挂掉。

shard,这就是传说中的分片了。上面提到一个机器就算能力再大也有天花板,就像军队打仗一样,一个人再厉害喝血瓶也拼不过对方的一个师。俗话说三个臭皮匠顶个诸葛亮,这个时候团队的力量就凸显出来了。在互联网也是这样,一台普通的机器做不了的多台机器来做,如下图:

wKiom1UsviPDW-8HAAGzUzKmy3A693.jpg

一台机器的一个数据表 Collection1 存储了 1T 数据,压力太大了!在分给4个机器后,每个机器都是256G,则分摊了集中在一台机器的压力。也许有人问一台机器硬盘加大一点不就可以了,为什么要分给四台机器呢?不要光想到存储空间,实际运行的数据库还有硬盘的读写、网络的IO、cpu和内存的瓶颈。在mongodb集群只要设置好了分片规则,通过mongos操作数据库就能自动把对应的数据操作请求转发到对应的分片机器上。在生产环境中分片的片键可要好好设置,这个影响到了怎么把数据均匀分到多个分片机器上,不要出现其中一台机器分了1T,其他机器没有分到的情况,这样还不如不分片!

replica set,上两节已经详细讲过了这个小编,怎么这里又来凑热闹!其实上图4个分片如果没有 replica set 是个不完整架构,假设其中的一个分片挂掉那四分之一的数据就丢失了,所以在高可用性的分片架构还需要对于每一个分片构建 replica set 副本集保证分片的可靠性。生产环境通常是 2个副本 + 1个仲裁。

说了这么多,还是来实战一下如何搭建高可用的mongodb集群:

首先确定各个组件的数量,mongos 3个, config server 3个,数据分3片 shard server 3个,每个shard 有一个副本一个仲裁也就是 3 * 2 = 6 个,总共需要部署15个实例。这些实例可以部署在独立机器也可以部署在一台机器,我们这里测试资源有限,只准备了 3台机器,在同一台机器只要端口不同就可以,看一下物理部署图:

wKioL1UswCjgmYTwAAUnOHDR7OI538.jpg

下面是安装配置

1,准备三台机器

ip: 10.19.21.241,21.242,0);background-image:none;">21.243

分别在每台机器上,同步时间服务器

yuminstallntpdate-y
/usr/sbin/ntpdatecn.pool.ntp.org

顺便把硬件时间也同步下

hwclock--systohc
10.19.21.241|success|rc=0>>
10.19.21.243|success|rc=0>>
10.19.21.242|success|rc=0>>

2,在一台机器上,下载mongodb

wgethttps://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-3.2.8.tgz

3,解压安装mongodb

tarzxvfmongodb-linux-x86_64-rhel70-3.2.8.tgz
mvmongodb-linux-x86_64-rhel70-3.2.8/usr/local/mongodb

4,在一台机器上,创建mongos config shard1 shard2 shard3五个目录,因为mongos不存储数据,只需建立日志文件目录

建立mongos目录和日志目录

mkdir-p/usr/local/mongodb/mongos/log

建立config server数据目录

mkdir-p/usr/local/mongodb/config/data

建立config server日志目录

mkdir-p/usr/local/mongodb/config/log

建立shard1数据目录和日志目录

mkdir-p/usr/local/mongodb/shard1/data/usr/local/mongodb/shard1/log

建立shard2数据目录和日志目录

mkdir-p/usr/local/mongodb/shard2/data/usr/local/mongodb/shard2/log

建立shard3数据目录和日志目录

mkdir-p/usr/local/mongodb/shard2/data/usr/local/mongodb/shard2/log

5,规划5个组件对应的端口号,由于一个机器需要同时部署mongos,config server,shard1,shard2,shard3,所以需要用端口号进行区分

这个端口号可以自己定义,mongos:20000,config server:21000,shard1:22001,shard2:22002,shard3:22003


6,配置服务器的配置文件

cat/usr/local/mongodb/config/mongod-configsvr.conf
dbpath=/usr/local/mongodb/config/data
port=21000
logpath=/usr/local/mongodb/config/log/config.log
fork=true
configsvr=true
logappend=true

配置每台mongos服务器

cat/usr/local/mongodb/config/mongod-mongos.conf
configdb=10.19.21.241:21000,10.19.21.242:21000,10.19.21.243:21000
port=20000
logpath=/usr/local/mongodb/mongos/log/mongos.log
logappend=true
fork=true

配置各个分片的副本集

cat/usr/local/mongodb/config/mongod-shardsvr1.conf
shardsvr=true
replSet=shard1
port=22001
dbpath=/usr/local/mongodb/shard1/data
logpath=/usr/local/mongodb/shard1/log/shard1.log
fork=true
logappend=true

cat/usr/local/mongodb/config/mongod-shardsvr2.conf
shardsvr=true
replSet=shard2
port=22002
dbpath=/usr/local/mongodb/shard2/data
logpath=/usr/local/mongodb/shard2/log/shard2.log
fork=true
logappend=true

cat/usr/local/mongodb/config/mongod-shardsvr3.conf
shardsvr=true
replSet=shard3
port=22003
dbpath=/usr/local/mongodb/shard3/data
logpath=/usr/local/mongodb/shard3/log/shard3.log
fork=true
logappend=true

7,打包mongodb目录,拷贝到另外两台服务器

tarzcvf/mnt/mongodb.tar.gz/usr/local/mongodb
scpmongodb.tar.gzroot@10.19.21.242:/mnt/
scpmongodb.tar.gzroot@10.19.21.243:/mnt/

被拷贝的两台服务器分别解压

tarzxvf/mnt/mongodb.tar.gz-C/

8,分别在每台机器上,启动服务,三台机器必须先全部启动mongod-configsvr.conf

ln-s/usr/local/mongodb/bin/mongo*/usr/bin/mongod
mongod-f/usr/local/mongodb/config/mongod-configsvr.conf
mongos-f/usr/local/mongodb/config/mongod-mongos.conf(上面命令全部执行完再运行,否则报错)

启动各个分片的副本集

mongod-f/usr/local/mongodb/config/mongod-shardsvr1.conf
mongod-f/usr/local/mongodb/config/mongod-shardsvr2.conf
mongod-f/usr/local/mongodb/config//mongod-shardsvr3.conf

9,登陆任意一台,连接mongodb

设置第一个分片副本集

[root@VM-241~]#mongo127.0.0.1:22001
MongoDBshellversion:3.2.8
connectingto:127.0.0.1:22001/test
使用admin数据库
mongos>useadmin
switchedtodbadmin

定义副本集配置

mongos>config={_id:"shard1",members:[{_id:0,host:"10.19.21.241:22001"},{_id:1,host:"10.19.21.242:22001"},{_id:2,host:"10.19.21.243:22001",arbiterOnly:true}]}
#####################################
{
"_id":"shard1","members":[
{
"_id":0,"host":"10.19.21.241:22001"
},{
"_id":1,"host":"10.19.21.242:22001"
},{
"_id":2,"host":"10.19.21.243:22001","arbiterOnly":true
}
]
}

初始化副本集配置

>rs.initiate(config);

{
"info":"ConfigNowsavedlocally.Shouldcomeonlineinaboutaminute.","ok":1
}

设置第二个分片副本集

[root@VM-241~]#mongo127.0.0.1:22002
MongoDBshellversion:3.2.8
connectingto:127.0.0.1:22002/test
>useadmin
switchedtodbadmin
>config={_id:"shard2",host:"10.19.21.241:22002"},host:"10.19.21.242:22002"},host:"10.19.21.243:22002",arbiterOnly:true}]}

初始化副本集配置
>rs.initiate(config);

设置第三个分片副本集

[root@VM-241~]#mongo127.0.0.1:22003
MongoDBshellversion:3.2.8
connectingto:127.0.0.1:22003/test
>useadmin
switchedtodbadmin
>config={_id:"shard3",host:"10.19.21.241:22003"},host:"10.19.21.242:22003"},host:"10.19.21.243:22003",arbiterOnly:true}]}

>rs.initiate(config);

10,配置分片

目前搭建的mongodb配置服务器,路由服务器,各个分片服务器,不过应用程序连接到mongs路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效。

连接mongos

[root@VM-241~]#mongo127.0.0.1:20000
MongoDBshellversion:3.2.8
connectingto:127.0.0.1:20000/test

使用admin数据库

mongos>useadmin
switchedtodbadmin

串联路由服务器与分配副本集1

mongos>db.runcommand({addshard:"shard1/10.19.21.241:22001,10.19.21.242:22001,10.19.21.243:22001"});
{"shardAdded":"shard1","ok":1}

#如里shard是单台服务器,用 db.runcommand( { addshard : “[:]” } )这样的命令加入,如果shard是副本集,用db.runcommand( { addshard : “replicasetName/[:port][,serverhostname2[:port],…]” });这样的格式表示

串联路由服务器与分配副本集2

mongos>db.runcommand({addshard:"shard2/10.19.21.241:22002,10.19.21.242:22002,10.19.21.243:22002"});
{"shardAdded":"shard2",80);">串联路由服务器与分配副本集3
mongos>db.runcommand({addshard:"shard3/10.19.21.241:22003,10.19.21.242:22003,10.19.21.243:22003"});
{"shardAdded":"shard3",80);">查看分片服务器配置 
mongos>db.runcommand({listshards:1})
{
"shards":[
{
"_id":"shard1","host":"shard1/10.19.21.241:22001,10.19.21.242:22001"
},{
"_id":"shard2","host":"shard2/10.19.21.241:22002,10.19.21.242:22002"
},{
"_id":"shard3","host":"shard3/10.19.21.241:22003,10.19.21.242:22003"
}
],"ok":1
}

由于10.19.21.243是每个分片副本集的仲裁节点,所以上面没有列出


11,目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片,连接在mongos上,准备让指定的数据库、指定的集合分片生效


指定数据库里面的索引

使用table1中的id字段的hash作为索引来分片,需要进入数据库中去建立

db.table1.ensureIndex({id:"hashed"});
db.table1.ensureIndex({id:1},{unique:true});

指定数据库testdb使分片生效,在admin库中执行以下命令

mongos>db.runcommand({enablesharding:"testdb"});
{"ok":1}
或是
mongos>sh.enableSharding('testdb');

指定数据库里需要分片的集合和片键

mongos>db.runcommand({shardcollection:"testdb.table1",key:{id:"hashed"}})
{"collectionsharded":"testdb.table1","ok":1}
或是
mongos>sh.shardCollection('testdb.table1',{id:'hashed'})

我们设置testdb的 table1 表需要分片,根据 id 自动分片到 shard1 ,shard2,shard3 上面去。要这样设置是因为不是所有mongodb 的数据库和表 都需要分片!

mongos>usetestdb
switchedtodbtestdb

插入测试数据

for(vari=1;i<=100000;i++)db.table1.save({id:i,"test1":"testvar1"});
WriteResult({"nInserted":1})

查看分片情况如下:

mongos>db.table1.stats();
{
"sharded":true,"capped":false,"ns":"testdb.table1","count":100000,"size":5400000,"storageSize":1822720,"totalIndexSize":3674112,"indexSizes":{
"_id_":991232,"id_hashed":2682880
},"avgobjSize":54,"nindexes":2,"nchunks":6,"shards":{
"shard1":{
"ns":"testdb.table1","count":33755,"size":1822770,"storageSize":614400,"wiredTiger":{
"Metadata":{
"formatVersion":1
},......
"nindexes":2,"totalIndexSize":1224704,"indexSizes":{
"_id_":335872,"id_hashed":888832
},"ok":1
},"shard2":{
"ns":"testdb.table1","count":33143,"size":1789722,"storageSize":606208,"totalIndexSize":1196032,"indexSizes":{
"_id_":327680,"id_hashed":868352
},"shard3":{
"ns":"testdb.table1","count":33102,"size":1787508,"storageSize":602112,"totalIndexSize":1253376,"id_hashed":925696
},"ok":1
}
},255);"> 

可以看到数据分到3个分片,shard1:33755 shard2:33143 shard3:33102

----------------------------------------------------------------------------------------------

  • java程序调用分片集群,因为我们配置了三个mongos作为入口,就算其中哪个入口挂掉了都没关系,使用集群客户端程序如下:

  • publicclasstestMongoDBShards{
    
    publicstaticvoidmain(String[]args){
    
    try{
    List<ServerAddress>addresses=newArrayList<ServerAddress>();
    ServerAddressaddress1=newServerAddress("10.19.21.241",20000);
    ServerAddressaddress2=newServerAddress("10.19.21.242",20000);
    ServerAddressaddress3=newServerAddress("10.19.21.243",20000);
    addresses.add(address1);
    addresses.add(address2);
    addresses.add(address3);
    
    MongoClientclient=newMongoClient(addresses);
    DBdb=client.getDB("testdb");
    DBCollectioncoll=db.getCollection("table1");
    
    BasicDBObjectobject=newBasicDBObject();
    object.append("id",1);
    
    DBobjectdbObject=coll.findOne(object);
    
    System.out.println(dbObject);
    
    }catch(Exceptione){
    e.printstacktrace();
    }
    }
    }


整个分片集群搭建完了,思考一下我们这个架构是不是足够好呢?其实还有很多地方需要优化,比如我们把所有的仲裁节点放在一台机器,其余两台机器承担了全部读写操作,但是作为仲裁的192.168.0.138相当空闲。让机器3 192.168.0.138多分担点责任吧!架构可以这样调整,把机器的负载分的更加均衡一点,每个机器既可以作为主节点、副本节点、仲裁节点,这样压力就会均衡很多了,如图:

wKioL1fFKzuhmO4NAAAxTxy9uOM229.png

当然生产环境的数据远远大于当前的测试数据,大规模数据应用情况下我们不可能把全部的节点像这样部署,硬件瓶颈是硬伤,只能扩展机器。要用好mongodb还有很多机制需要调整,不过通过这个小编我们可以快速实现高可用性、高扩展性,所以它还是一个非常不错的Nosql组件。

再看看我们使用的mongodb java 驱动客户端 MongoClient(addresses),这个可以传入多个mongos 的地址作为mongodb集群的入口,并且可以实现自动故障转移,但是负载均衡做的好不好呢?打开源代码查看:

wKiom1fFK2KDiWHnAAAXWv5WbtE284.png

它的机制是选择一个ping 最快的机器来作为所有请求的入口,如果这台机器挂掉会使用下一台机器。那这样。。。。肯定是不行的!万一出现双十一这样的情况所有请求集中发送到这一台机器,这台机器很有可能挂掉。一但挂掉了,按照它的机制会转移请求到下台机器,但是这个压力总量还是没有减少啊!下一台还是可能崩溃,所以这个架构还有漏洞!不过这个文章已经太长了,后续解决吧。


原文:http://www.jb51.cc/article/p-fgxnpznn-bm.html

参考:http://blog.jobbole.com/72643/

centos 安装mongodb集群-分片的更多相关文章

  1. html5录音功能实战示例

    这篇文章主要介绍了html5录音功能实战示例的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

  2. 基于 HTML5 WebGL 实现的医疗物流系统

    物联网( IoT ),简单的理解就是物体之间通过互联网进行链接。这篇文章给大家介绍基于 HTML5 WebGL 实现的医疗物流系统,感兴趣的朋友跟随小编一起看看吧

  3. HTML5页面无缝闪开的问题及解决方案

    这篇文章主要介绍了HTML5页面无缝闪开方案,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

  4. HTML5跳转小程序wx-open-launch-weapp的示例代码

    这篇文章主要介绍了HTML5跳转小程序wx-open-launch-weapp的相关知识,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

  5. ios – 与Xcode Bots持续集成

    我想使用Xcode机器人进行持续集成.我已经安装了OSXMavericks和Server(版本3).我可以使用Xcode5.0.1创建机器人.在集成时,它正在成功地执行分析测试,但总是最终的集成结果是失败的.IntegrationFailed.Unexpectedinternalservererror.Seetheintegration’slogsformoredetails.`我没有从服务器错误

  6. ios – 使用NSURLSession.downloadTaskWithURL时的内存泄漏

    或者,繁荣,内存泄漏.Apple的NSURLSession类参考在管理边框中的会话部分中指定:IMPORTANT—Thesessionobjectkeepsastrongreferencetothedelegateuntilyourappexitsorexplicitlyinvalidatesthesession.Ifyoudonotinvalidatethesession,yourappleaksmemoryuntilitexits.嗯是的.你也可以考虑这两种方法:>flushWithCompletio

  7. ios – Objective-C中的混合或多重继承?

    换句话说,是否可以创建一个可以从这两个子类继承的抽象类,然后只覆盖两者之间不同的方法?我到目前为止所知道的>我知道Objective-C不支持多重继承>我知道我可以使用Categories添加常用的方法,但是我不认为这会解决覆盖init方法或添加私有属性解决方法建立在Amin的答案上,这是怎么做的呢?

  8. xcode – osx上的config.log是什么?它在哪里?

    任何人都可以解释’configure’是什么和做什么,一般可以找到config.log文件?

  9. ios – Swift Physics:碰撞时的角度计算错误

    我有一个简单的SpriteKit应用程序,带有墙壁和球.两者都设置了SKPhysicsBody.当我向一个方向施加力时,我希望球在碰撞时以相同的角度在墙壁上反射,但方向相反.但有时我看到角度很奇怪.我使用了所有的physicsBody属性,但是无法修复它.有时第一次反射看起来很好,但是第三次或第六次反射,有时第一次反射是错误的角度.我从不同的帖子中读到,人们有点自我计算的“正确方向”.但我无法想象

  10. OpenStack对象存储――Swift

    Swift前身是RackspaceCloudFiles项目,随着Rackspace加入到OpenStack社区,于2010年7月贡献给OpenStack,作为该开源项目的一部分。Swift目前的最新版本是OpenStackEssex1.5.1。Swift特性在OpenStack官网中,列举了Swift的20多个特性,其中最引人关注的是以下几点。在OpenStack中还可以与镜像服务Glance结合,为其存储镜像文件。Auth认证服务目前已从Swift中剥离出来,使用OpenStack的认证服务Keysto

随机推荐

  1. 在airgapped(离线)CentOS 6系统上安装yum软件包

    我有一个CentOS6系统,出于安全考虑,它已经被空气泄漏.它可能从未连接到互联网,如果有,它很长时间没有更新.我想将所有.rpm软件包放在一个驱动器上,这样它们就可以脱机安装而无需查询互联网.但是,我在测试VM上遇到的问题是,即使指定了本地路径,yum仍然会挂起并尝试从在线存储库进行更新.另外,有没有办法使用yum-utils/yumdownloader轻松获取该包的所有依赖项和所有依赖项?目前

  2. centos – 命名在日志旋转后停止记录到rsyslog

    CentOS6.2,绑定9.7.3,rsyslog4.6.2我最近设置了一个服务器,我注意到在日志轮换后,named已停止记录到/var/log/messages.我认为这很奇怪,因为所有日志记录都是通过rsyslog进行的,并且named不会直接写入日志文件.这更奇怪,因为我在更新区域文件后命名了HUPed,但它仍然没有记录.在我停止并重新启动命名后,记录恢复.这里发生了什么?

  3. centos – 显示错误的磁盘大小

    对于其中一个磁盘,Df-h在我的服务器上显示错误的空白区域:Cpanel表明它只有34GB免费,但还有更多.几分钟前,我删除了超过80GB的日志文件.所以,我确信它完全错了.fdisk-l/dev/sda2也显示错误:如果没有格式化,我该怎么做才能解决这个问题?并且打开文件描述符就是它需要使用才能做到这一点.所以…使用“lsof”并查找已删除的文件.重新启动写入日志文件的服务,你很可能会看到空间可用.

  4. 如何在centos 6.9上安装docker-ce 17?

    我目前正在尝试在centOS6.9服务器上安装docker-ce17,但是,当运行yuminstalldocker-ce时,我收到以下错误:如果我用跳过的标志运行它我仍然得到相同的消息,有没有人知道这方面的方法?

  5. centos – 闲置工作站的异常负载平均值

    我有一个新的工作站,具有不寻常的高负载平均值.机器规格是:>至强cpu>256GB的RAM>4x512GBSSD连接到LSI2108RAID控制器我从livecd安装了CentOS6.564位,配置了分区,网络,用户/组,并安装了一些软件,如开发工具和MATLAB.在启动几分钟后,工作站负载平均值的值介于0.5到0.9之间.但它没有做任何事情.因此我无法理解为什么负载平均值如此之高.你能帮我诊断一下这个问题吗?

  6. centos – Cryptsetup luks – 检查内核是否支持aes-xts-plain64密码

    我在CentOS5上使用cryptsetupluks加密加密了一堆硬盘.一切都很好,直到我将系统升级到CentOS6.现在我再也无法安装磁盘了.使用我的关键短语装载:我收到此错误:在/var/log/messages中:有关如何装载的任何想法?找到解决方案问题是驱动器使用大约512个字符长的交互式关键短语加密.出于某种原因,CentOS6中的新内核模块在由旧版本创建时无法正确读取512个字符的加密密钥.似乎只会影响内核或cryptsetup的不同版本,因为在同一系统上创建和打开时,512字符的密钥将起作用

  7. centos – 大量ssh登录尝试

    22个我今天登录CentOS盒找到以下内容这是过去3天内的11次登录尝试.WTF?请注意,这是我从我的提供商处获得的全新IP,该盒子是全新的.我还没有发布任何关于此框的内容.为什么我会进行如此大量的登录尝试?是某种IP/端口扫描?基本上有4名匪徒,其中2名来自中国,1名来自香港,1名来自Verizon.这只发生在SSH上.HTTP上没有问题.我应该将罪魁祸首子网路由吗?你们有什么建议?

  8. centos – kswap使用100%的CPU,即使有100GB的RAM也可用

    >Linux内核是否应该足够智能,只需从内存中清除旧缓存页而不是启动kswap?

  9. centos – Azure将VM从A2 / 3调整为DS2 v2

    我正在尝试调整前一段时间创建的几个AzureVM,从基本的A3和标准A3到标准的DS2v2.我似乎没有能力调整到这个大小的VM.必须从头开始重建服务器会有点痛苦.如果它有所不同我在VM中运行CentOS,每个都有一个带有应用程序和操作系统的磁盘.任何人都可以告诉我是否可以在不删除磁盘的情况下删除VM,创建新VM然后将磁盘附加到新VM?

  10. centos – 广泛使用RAM时服务器计算速度减慢

    我在非常具体的情况下遇到服务器速度下降的问题.事实是:>1)我使用计算应用WRF>2)我使用双XeonE5-2620v3和128GBRAM(NUMA架构–可能与问题有关!

返回
顶部