mongodb 总结

生产环境最佳实践 
1.linux 系统: 
1】关闭文件系统/分区的atime 选项 
Vi /etc/fstab 
在对应的分区项后面添加noatime ,nodiratime 
LABEL=/1 / ext3 defaults 1 1 
LABEL=/data1 /data ext4 defaults,noatime,nodiratime 1 2 
2】设置文件句柄4k+,目前该配置已经集成到启动脚本中。 
Vi /etc/security/limit.conf 
* soft nproc 65536 
* hard nproc 65536 
* soft nofile 65536 
* hard nofile 65536 
3】不要使用large vm page (不要使用大内存页选项) 
Linux 大内存页参考:http://linuxgazette.net/155/krishnakumar.html 
4】用dmesg 查看主机的信息。 
2.linux 文件系统的选择: 
Mongodb 采用预分配的大文件来存储数据,我们推荐 
1】ext4 
2】xfs 
3.内核版本: 
网络上对2.6.33-31 以及2.6.32 的表现持怀疑度, 而强力推荐2.6.36 .ext4文件系统数据损失bug就影响着多个稳定版内核。ext4用户应避免使用Linux 
3.4.14、3.4.15、3.5.7、3.6.2和3.6.3。

4.线程堆栈的尺寸 
默认的线程堆栈尺寸为10m ,调整为1m ,已经集成在启动脚本中。 
项目过程中的总结与建议 
1.大小写问题 
mongodb 是默认区分大小写的,但是这会不会衍生出跟mysql 一样的问题?(mysql 区 
分大小写,导致windows 与linux 下的表名,字段名不一致)。 
如果无特别用途,建议表名,字段名全部用小写字母。 
2.尽可能的缩短字段名的长度 
mongodb 的schema free 导致了每笔数据都要存储他的key 以及属性,这导致了这些数 
据的大量冗余。开发同事也许考虑到,从易读性出发设计的key 基本比较长,基本都是按 
照起字面意思去设计的。这导致key 很长。对应的数据存储占用了很大的空间。 
必要的时候,可以考虑建立一个key 与实际意义的map 表,尽量降低key 的长度。 
示例定义: 
// 基本信息 
static  string _ID = "_id"; 
static  string STATUS_CODE = "sc"; 
// 缓冲 
static string DATE = "date"; 
static string MAX_AGE = "age"; 
// 内容 
static string CONTENT = "content"; 
static string CONTENT_TYPE = "ctype"; 
static string CONTENT_LENGTH = "clen"; 
static string ZIP = "zip"; 
3. mongodb 单表最大索引数为64 
无索引排序的最大数据量为4M, 超过则报错退出。 
建议where 条件尽量落在索引字段上,排序字段需要建立索引,索引的使用原则与oracle 
mysql 一致,尽量降低索引数量,索引长度。 
mongodb 的查询每次只能用到一个索引,对数据的查询不会“并发”执行 
例如: db.tab.find({'id'=1,'name'=2}) 如果‘id’,‘name' 列上分别有索引 
对查询效率提升意义不大,如果索引为('id','name') 则大幅提升效率。 
4.mongodb 添加字段 
如果添加字段且带有default 值,需要全部数据都要修改,这也是设计阶段需要考虑的 
事情,这个问题的另外一种解法是应用代码里做一次判断。 
5.测试过程的密码问题 
对于用作数据库使用的Mongodb,在代码测试阶段都应加上密码验证,目前上线阶段基 
本都会在密码验证方面出现问题(做缓存使用的可以不做密码验证)。 
6.数据源连接方式 
使用连接池模式,尽量减少认证带来的性能额外消耗 
建议采用标准的uri 连接方式: mongodb://user:passwd@host:port,host:port/db 
7.Mongodb日志量 
正常情况下不需要开启-v 日志选项。 
Mongodb 的-v 日志适合在开发环境的调试线上部署不建议采用这个参数,目前线上 
部署的情况,-v 日志一天也会有几个G 的日志量,去掉这个参数,跟数据查询相关的操作 
就不会记日志了,数据库的内部的重要操作还是会写日志的。 
8.连接数大小的设置 
Mongodb 驱动程序采用的连接池的方式连接到数据库,目前从观察到的情况是应用一 
开启便根据变量的设置,建立全部连接,然后提供给程序使用,并且一旦其中某个连接 
到数据库的访问失败,则会清空整个连接池到这台数据库的连接,并重新建立连接。 
而mongodb 对中断连接的垃圾清理工作则是懒惰的被动清理方式,如果驱动程序端配 
置的连接数过大,一旦发生重连,则会导致mongo 端堆积大量的垃圾连接数据,导致 
主机资源耗尽。 
建议: mongodb 驱动的连接池大小的设置一般应该控制100 以下,一般情况30-50 足 
够支撑应用访问。 
9.锁的问题 
Mongodb 对数据库的访问全部加锁,如果是查询请求则设置共享锁,数据修改请求, 
则设置全局排他锁,并且是实例级别的排他锁。并且写锁会阻塞读请求,如果长时间持有 
写锁,会阻塞整个实例的读请求。 
部署建议: 
1】一般情况下,建议不同的应用不要合用一套示例。 
2】如果资源不满足,需要合用,应该具有相同属性的应用合用一套实例。 
例如合同mongo 的应用都是读多写少,防止一台写多应用阻塞读请求。 
10.关于map/reduce问题 
mongodb 对map/reduce 的支持是单线程的,我们不建议在前台使用该功能, group by 
是通过map/reduce 实现的,开发过程中,要慎用。 
11.安全问题 
1】Mongodb 运行在mongodb 用户之上,并禁止mongodb 用户登录 
2】使用Mongodb 自带的认证方法(adduser、auth)限制用户访问行为 
3】将Mongodb 置于内网环境中 
4】Mongodb 必须暴露在外网环境中的时候,使用IPTABLES 等网络层技术进行防护 
5】网络层面内容为明文传输,可以考虑存储加密文档,应用端,加解密。 
12.性能监控 
Mongodb 自带有性能数据收集系统 
Mongostat 实时采集数据库的多项指标,提供http console 端口号为应用端口号+1000。 
关注的主要性能指标: 
1】Faults:显示Mongodb 每秒页面故障的数量,这个是mongoDB 映射到虚拟地址空间, 
而不是物理内存,这个值如果飙高的话,可能意味着机器没有足够的内存来 
存储数据和索引。 
2】Flushes:每秒做了多少次fsync,显示多少次数据被刷新进了磁盘 
3】locked:写锁 
4】idx miss:索引未命中比例 
5】qr | qw:读写锁的请求队列长度。 
6】conn: 当前已经建立的连接数。 
其他命令: 
Db.stat() 
db.serverStatuse() 
Db.collection.stats() 
13.碎片问题 
Mongodb 数据库如果数据修改很频繁,会出现比较严重的空间碎片问题,表现在磁盘 
文件扩张与实际数据量不相符,内存不够用,索引命中率低,查询效率降低。 
碎片整理,目前我们采用的版本没有太有效的方法。 
可以用db.repaireDatabase() 来整理数据库,这个过程非常的慢 
如果是Master-slave 模式则相当于执行一次主从切换,然后从新建立从库。 
如果是replSet 架构可以停掉数据库,然后删除数据目录,从新从复制复制组中全同步数据, 
这个时候要考虑oplog 的尺寸。 
一个大体的步骤: 
1.】先调用rs.freeze(1200),将每个不想让它成为primary 的机器让它在1200 秒内无法成为 
primary(这步也可以不做) 
2. 】将primary stepDown,不出意外新的primary 会起来. 
3. 】将原primary kill 掉. 
4. 】删掉所有data 数据(调用repair 很慢,真不如干掉重新来) 
5. 】再重启动原primary 的进程 
6. 】以此循环完成整个复制组的全部重建。 
14.系统备份: 
Mongodb 目前不支持在线备份,只能离线备份。 
我们采用的架构为replSet 和Master-slave . 
基于我们目前的架构以及数据一致性要求,我们没有安排相关的备份系统。 
15.应用代码中Mongodb连接问题 
在有些应用在使用Mongodb 过程中会存在以下两个小问题: 
1. 在应用启动过程中,应用存在要求连接池中所有的连接都建立成功才让应用正 
常启动,这种做法不可取,因为存在网络问题、Mongodb 拒绝连接或Mongodb 假死情况,如 
果没加外部try catch 做防护,则不断重启也不能正常启动端口。 
2.有些应用在使用Mongodb 中连接池配置了safe=true,w=1;这种配置意味着客户端在 
插入数据或更新数据的时候,要求mongodb 必须将所更新的数据写入磁盘并返回更新成功 
的信息给程序。如果碰上应用程序访问压力大,mongodb 就会反应迟钝,并会发生假死可能, 
针对此情况,需要评估数据的一致性需求,做出合适调整。我们一般建议关闭此选项。 
16.补充开发方面的一些问题 
1】skip+limit翻页,越往后面越慢,有资料说用数组元素的分页可以解决,目前还没 
试过,比较靠谱的做法是,先找出上次的id,翻页的时候不用skip: 
last_row_id = ObjectId(‘....’); 
db.activity_stream->find({_id:{$lt: last_row_id }, 
user_id:20 } ).sort( {_id:-1} ).limit(10); 
2】.只有真正需要的字段才select出来 
3】.更新的某条数据的时候,先查出来再更新会减小锁的时间 
4】.只有返回很少结果的查询才用索引,否则会加载太多数据,比没有用索引还慢 
5】.属性比较多的时候,建立分层的关系能够提高查询效率,否则每个记录都要过一遍 
才能找到要的属性

 

转自:http://www.cnblogs.com/shanyou/archive/2012/08/22/2650145.html

posted @ 2015-01-13 21:34  jiang_jiang  阅读(367)  评论(0编辑  收藏  举报