最新下载
热门教程
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
NoSQL数据库MongoDB如何分页查询及性能优化
时间:2022-06-29 10:36:34 编辑:袖梨 来源:一聚教程网
传统的SQL分页
传统的sql分页,所有的方案几乎是绕不开row_number的,对于需要各种排序,复杂查询的场景,row_number就是杀手锏。另外,针对现在的web很流行的poll/push加载分页的方式,一般会利用时间戳来实现分页。这两种分页可以说前者是通用的,连Linq生成的分页都是row_number,可想而知它多通用。后者是无论是性能和复杂程度都是最好的,因为只要简单的一个时间戳即可。
MongoDB分页
进入到Mongo的思路,分页其实并不难,那难得是什么?其实倒也没啥,看明白了也就那样,和SQL分页的思路是一致的。
先说明下这篇文章使用的用例,我在数据库里导入了如下的实体数据,其中cus_id、amount我生成为有序的数字,倒入的记录数是200w:
代码如下 | 复制代码 |
public class Test { /// /// 主键 ObjectId 是MongoDB自带的主键类型 /// public ObjectId Id { get; set; } /// /// 客户编号 /// [BsonElement("cust_id")] public string CustomerId { get; set; } /// /// 总数 /// [BsonElement("amount")] public int Amount { get; set; } /// /// 状态 /// [BsonElement("status")] public string Status { get; set; } } |
以下的操作基于MongoDB GUI 工具见参考资料3
首先来看看分页需要的参数以及结果,一般的分页需要的参数是:
PageIndex 当前页
PageSize 每页记录数
QueryParam[] 其他的查询字段
所以按照row_number的分页思想,也就是说取第(pageIndex*pageSize)到第(pageIndex*pageSize + pageSize),我们用Linq表达就是:
代码如下 | 复制代码 |
query.Where(xxx...xxx).Skip(pageIndex*pageSize).Take(pageSize) |
查找了资料,还真有skip函数,而且还有Limit函数 见参考资料1、2,于是轻易地实现了这样的分页查询:
代码如下 | 复制代码 |
db.test.find({xxx...xxx}).sort({"amount":1}).skip(10).limit(10)//这里忽略掉查询语句 |
相当的高效,几乎是几毫秒就出来了结果,果然是NoSql效率一流。但是慢,我这里使用的数据只是10条而已,并没有很多数据。我把数据加到100000,效率大概是20ms。如果这么简单就研究结束了的话,那真的是太辜负了程序猿要钻研的精神了。sql分页的方案,方案可是能有一大把,效率也是不一的,那Mongo难道就这一种,答案显然不是这样的。另外是否效率上,性能上会有问题呢?Redis篇里,就吃过这样的亏,乱用Keys。
在查看了一些资料之后,发现所有的资料都是这样说的:
不要轻易使用Skip来做查询,否则数据量大了就会导致性能急剧下降,这是因为Skip是一条一条的数过来的,多了自然就慢了。
这么说Skip就要避免使用了,那么如何避免呢?首先来回顾SQL分页的后一种时间戳分页方案,这种利用字段的有序性质,利用查询来取数据的方式,可以直接避免掉了大量的数数。也就是说,如果能附带上这样的条件那查询效率就会提高,事实上是这样的么?我们来验证一下:
这里我们假设查询第100001条数据,这条数据的Amount值是:2399927,我们来写两条语句分别如下:
代码如下 | 复制代码 |
db.test.sort({"amount":1}).skip(100000).limit(10) //183ms db.test.find({amount:{$gt:2399927}}).sort({"amount":1}).limit(10) //53ms |
结果已经附带到注释了,很明显后者的性能是前者的三分之一,差距是非常大的。也印证了Skip效率差的理论。
C#实现
上面已经谈过了MongoDB分页的语句和效率,那么我们来实现C#驱动版本。
本篇文章里使用的是官方的BSON驱动,详见参考资料4。Mongo驱动附带了另种方式一种是类似ADO.NET的原生query,一种是Linq,这里我们两种都实现
方案一:条件查询 原生Query实现
代码如下 | 复制代码 |
var query = Query var result = collection.Find(query).SetLimit(100) .SetSortOrder(SortBy.Ascending("amount")).ToList(); Console.WriteLine(result.First().ToJson());//BSON自带的ToJson |
方案二:Skip原生Query实现
代码如下 | 复制代码 |
var result = collection.FindAll().SetSkip(100000).SetLimit(100) .SetSortOrder(SortBy.Ascending("amount")); Console.WriteLine(result.ToList().First().ToJson()); |
方案三:Linq 条件查询
代码如下 | 复制代码 |
var result = collection.AsQueryable .Where(item => item.Amount > 2399927).Take(100); Console.WriteLine(result.First().ToJson()); |
方案四:Linq Skip版本
代码如下 | 复制代码 |
var result = collection.AsQueryable Console.WriteLine(result.First().ToJson()); |
性能比较参考
这里的测试代码稍后我上传一下,具体的实现是利用了老赵(我的偶像啊~)的CodeTimer来计算性能。另外我跑代码都是用TestDriven插件来跑的。
方案一:
代码如下 | 复制代码 |
pagination GT-Limit { "_id" : ObjectId("5472e383fc46de17c45d4682"), "cust_id" : "A12399997", "amount" : 2399928, "status" : "B" } Time Elapsed: 1,322ms CPU Cycles: 4,442,427,252 Gen 0: 0 Gen 1: 0 Gen 2: 0 |
方案二:
代码如下 | 复制代码 |
pagination Skip-limit { "_id" : ObjectId("5472e383fc46de17c45d4682"), "cust_id" : "A12399997", "amount" : 2399928, "status" : "B" } Time Elapsed: 95ms CPU Cycles: 18,280,728 Gen 0: 0 Gen 1: 0 Gen 2: 0 |
方案三:
代码如下 | 复制代码 |
paginatiLinq on Linq where { "_id" : ObjectId("5472e383fc46de17c45d4682"), "cust_id" : "A12399997", "amount" : 2399928, "status" : "B" } Time Elapsed: 76ms CPU Cycles: 268,734,988 Gen 0: 0 Gen 1: 0 Gen 2: 0 |
方案四:
代码如下 | 复制代码 |
pagination Linq Skip { "_id" : ObjectId("5472e383fc46de17c45d4682"), "cust_id" : "A12399997", "amount" : 2399928, "status" : "B" } Time Elapsed: 97ms CPU Cycles: 30,834,648 Gen 0: 0 Gen 1: 0 Gen 2: 0 |
上面结果是不是大跌眼镜,这和理论实在相差太大,第一次为什么和后面的差距如此大?刚开始我以为是C# Mongo的驱动问题,尝试了换驱动也差不多。这几天我在看《MongoDB in Action》的时候,发现文章里提到:
MongoDB会根据查询,来加载文档的索引和元数据到内存里,并且建议文档元数据的大小始终要保持小于机器内存,否则性能会下降。
注意到了上面的理论之后,我替换了我的测试方案,第一次执行排除下,然后再比较,发现确实结果正常了。
方案一的修正结果:
代码如下 | 复制代码 |
pagination GT-Limit { "_id" : ObjectId("5472e383fc46de17c45d4682"), "cust_id" : "A12399997", "amount " : 2399928, "status" : "B" } Time Elapsed: 18ms CPU Cycles: 54,753,796 Gen 0: 0 Gen 1: 0 Gen 2: 0 |
总结
这篇文章,基于Skip分页和有序字段查询分页两种方案进行的对比。后者说白了只是利用查询结果不用依次数数来提高了性能。Skip虽然效率低一些但是通用一些,有序字段的查询,需要在设计分页的时候对这个字段做一些处理,起码要点了页码能获取到这个字段。这里我附加一个方式,就是两者的结合,我们可以拿每次展示的那页数据上的最后一个,结合Skip来处理分页,这样的话,相对来说更好一些。这里就不具体实现了。其他方式的性能比较和实现,欢迎大牛们来分享,十分感谢。
参考资料
1. MongoDB Skip函数:http://docs.mongodb.org/manual/reference/operator/aggregation/skip/
2. MongoDB Limit函数:http://docs.mongodb.org/manual/reference/operator/aggregation/limit/
3. MongoVUE Windows客户端管理工具(有收费版本):http://www.mongovue.com/
4. C#官方驱动:http://docs.mongodb.org/manual/applications/drivers/
相关文章
- 第五人格11.22共研服有什么更新 11月22日共研服更新内容介绍 11-21
- 原神恰斯卡怎么培养 11-21
- 无期迷途四星装束是谁 11-21
- 王者荣耀帝丹高中校服怎么获得 11-21
- 光遇姆明季后续版本怎么玩 11-21
- 《潜行者2:切尔诺贝利之心》使用手电筒方法介绍 11-21