1

场景

  • 当数据量足够大的时候,一页展示不完的时候,我们经常会需要分页的功能。

方案

方案一,数据不是很大

  • 需要排序
    s := globalS.Copy()
    c := s.DB(db).C(collection)
    defer s.Close()
    return c.Find(query).Select(selector).Sort(sort).Skip(100).Limit(20).All(result)

这中情况只适用于数据量比较小的时候,当数据量达到一定量,sort会内存益处报错

方案二,数据比较大

  • 不需要排序
    s := globalS.Copy()
    c := s.DB(db).C(collection)
    defer s.Close()
    return c.Find(query).Select(selector).Skip(100).Limit(20).All(result)

当数据量比较大的时候,可以使用这种情况。如果需要排序,那就取得返回值后在排序。

方案三,数据比较大,排序

  • 需要排序
    var result []interface{}
    s := globalS.Copy()
    c := s.DB(db).C(collection)
    defer s.Close()
    pipeM := []bson.M{
        {"$match": bson.M{"status": "true"}},
        {"$skip": start},
        {"$limit": end},
        {"$sort": bson.M{"height": -1}},
    }
    pipe := c.Pipe(pipeM)
    err = pipe.All(&result)

当数据量比较大的时候,并且需要排序的时候,可以使用这种情况。因为在skip,limit和sort同时出现的时候,由于有优先级,需要无论顺序如何,都是先执行sort,在执行skip,最后执行limit,但是我们使用聚合,也就是mgo里面的pipeline,可以改变执行的先后顺序。

结束语

  • 上面的三种情况都不适用大量的数据,首先是skip的限制,有人建议边查询边排序,我没有尝试
  • 如果数据量过大,我建议使用分库分表的方式来完成,这样加上GO语言的多线程,可以很快的查询和聚合

sixgo
156 声望4 粉丝

这里有BUG!