mongo 固定集合,大文件存储,简单优化 + 三招解决MongoDB的磁盘IO问题

1.固定集合

> db.createCollection('c1',{capped:true, size:100000, max:3});//固定集合  必须  显式创建。 设置capped为true, 集合总大小xxx字节, [集合中json个数max]
{ "ok" : 1 }
> db.c1.stats()
{
 "ns" : "test.c1",
 "count" : 0,
 "size" : 0,
 "storageSize" : 102400,
 "numExtents" : 1,
 "nindexes" : 0,
 "lastExtentSize" : 102400,
 "paddingFactor" : 1,
 "flags" : 0,
 "totalIndexSize" : 0,
 "indexSizes" : {

 },
 "capped" : 1,
 "max" : 3,
 "ok" : 1
}
> db.c1.insert({name:'1'});
> db.c1.insert({name:'2'});
> db.c1.insert({name:'3'});
> db.c1.find()
{ "_id" : ObjectId("51e28837cf05e15d315aa74a"), "name" : "1" }
{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }
{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }
> db.c1.insert({name:'4'});
> db.c1.find()
{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }
{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }
{ "_id" : ObjectId("51e28845cf05e15d315aa74d"), "name" : "4" }

普通集合转化为 固定集合

> db.runCommand({convertToCapped:'c1', size:1000000});
{ "ok" : 1 }

 

2.GridFS 存储大文件。 视频,大图片...

GrdiFS使用两个表来存储数据:

files 包含元数据对象

chunks 包含其他一些相关信息的二进制块.

 

3.性能优化

> db.c1.find().explain()//查看执行效率
{
 "cursor" : "ForwardCappedCursor",
 "nscanned" : 3,    //扫描集合中文档次数
 "nscannedObjects" : 3,
 "n" : 3,
 "millis" : 0,
 "nYields" : 0,
 "nChunkSkips" : 0,
 "isMultiKey" : false,
 "indexOnly" : false,
 "indexBounds" : {

 }
}

  3.1建立索引

> db.c1.ensureIndex({name:1}, {background:true});//后台建立索引
> db.c1.getIndexKeys();//简单的查看索引 元素
[ { "name" : 1 } ]
> db.c1.getIndexes();//查看索引 详细信息
[
 {
  "v" : 1,
  "key" : {
   "name" : 1
  },
  "ns" : "test.c1",
  "name" : "name_1",
  "background" : true
 }
]
> db.c1.find({name:'3'}).explain()
{
 "cursor" : "BtreeCursor name_1",
 "nscanned" : 1,//只查询一次
 "nscannedObjects" : 1,
 "n" : 1,
 "millis" : 0,
 "nYields" : 0,
 "nChunkSkips" : 0,
 "isMultiKey" : false,
 "indexOnly" : false,
 "indexBounds" : {
  "name" : [
   [
    "3",
    "3"
   ]
  ]
 }
}

建立唯一索引:

> db.c2.ensureIndex({age:1}, {unique:1}, {background:1});//唯一索引, 索引值不得重复。

删除索引:

> db.c2.dropIndex({age:1});
{ "nIndexesWas" : 2, "ok" : 1 }
db.c2.dropIndexes(); //删除所有索引,除_id索引外

  3.2限定返回行数, 设定返回字段数, 将集合转为固定集合

 

性能监控:

mongosniff --source

 

 

随着时间增长存取速度慢下来,明显感觉到。遂进行一下优化:

三招解决MongoDB的磁盘IO问题    转载

有点标题党的意思,不过下面三招确实比较实用,内容来自Conversocial公司的VP Colin Howe在London MongoDB用户组的一个分享。
申请:下面几点并非放四海皆准的法则,具体是否能够使用,还需要根据自己的应用场景和数据特点来决定。
1.使用组合式的大文档
我们知道MongoDB是一个文档数据库,其每一条记录都是一个JSON格式的文档。比如像下面的例子,每一天会生成一条这样的统计数据:
{ metric: "content_count", client: 5, value: 51, date: ISODate("2012-04-01 13:00") }
{ metric: "content_count", client: 5, value: 49, date: ISODate("2012-04-02 13:00") }
而如果采用组合式大文档的话,就可以这样将一个月的数据全部存到一条记录里:
{ metric: "content_count", client: 5, month: "2012-04", 1: 51, 2: 49, ... }
通过上面两种方式存储,预先一共存储大约7GB的数据(机器只有1.7GB的内存),测试读取一年信息,这二者的读性能差别很明显:
第一种: 1.6秒
第二种: 0.3秒
那么问题在哪里呢?
实际上原因是组合式的存储在读取数据的时候,可以读取更少的文档数量。而读取文档如果不能完全在内存中的话,其代价主要是被花在磁盘seek上,第一种存储方式在获取一年数据时,需要读取的文档数更多,所以磁盘seek的数量也越多。所以更慢。
实际上MongoDB的知名使用者foursquare就大量采用这种方式来提升读性能。见此
2.采用特殊的索引结构
我们知道,MongoDB和传统数据库一样,都是采用B树作为索引的数据结构。对于树形的索引来说,保存热数据使用到的索引在存储上越集中,索引浪费掉的内存也越小。所以我们对比下面两种索引结构:
db.metrics.ensureIndex({ metric: 1, client: 1, date: 1})
与
db.metrics.ensureIndex({ date: 1, metric: 1, client: 1 })
采用这两种不同的结构,在插入性能上的差别也很明显。
当采用第一种结构时,数据量在2千万以下时,能够基本保持10k/s 的插入速度,而当数据量再增大,其插入速度就会慢慢降低到2.5k/s,当数据量再增大时,其性能可能会更低。
而采用第二种结构时,插入速度能够基本稳定在10k/s。
其原因是第二种结构将date字段放在了索引的第一位,这样在构建索引时,新数据更新索引时,不是在中间去更新的,只是在索引的尾巴处进行修改。那些插入时间过早的索引在后续的插入操作中几乎不需要进行修改。而第一种情况下,由于date字段不在最前面,所以其索引更新经常是发生在树结构的中间,导致索引结构会经常进行大规模的变化。
3.预留空间
与第1点相同,这一点同样是考虑到传统机械硬盘的主要操作时间是花在磁盘seek操作上。
比如还是拿第1点中的例子来说,我们在插入数据的时候,预先将这一年的数据需要的空间都一次性插入。这能保证我们这一年12个月的数据是在一条记录中,是顺序存储在磁盘上的,那么在读取的时候,我们可能只需要一次对磁盘的顺序读操作就能够读到一年的数据,相比前面的12次读取来说,磁盘seek也只有一次。
db.metrics.insert([
    { metric: 'content_count', client: 3, date: '2012-01', 0: 0, 1: 0, 2: 0, ... }
    { .................................., date: '2012-02', ... })
    { .................................., date: '2012-03', ... })
    { .................................., date: '2012-04', ... })
    { .................................., date: '2012-05', ... })
    { .................................., date: '2012-06', ... })
    { .................................., date: '2012-07', ... })
    { .................................., date: '2012-08', ... })
    { .................................., date: '2012-09', ... })
    { .................................., date: '2012-10', ... })
    { .................................., date: '2012-11', ... })
    { .................................., date: '2012-12', ... })
])
结果:
如果不采用预留空间的方式,读取一年的记录需要62ms
如果采用预留空间的方式,读取一年的记录只需要6.6ms

 

posted @ 2013-07-15 08:54  群叔  阅读(1506)  评论(0编辑  收藏  举报