Es7.x使用RestHighLevelClient的3种分页实现

目录

  1. from+size分页
    1.1 from+size的命令行实现
    1.2 from+size的RestHighLevelClient实现
  2. scroll 分页
    2.1 scroll分页的命令行实现
    2.2 scroll的RestHighLevelClient实现
  3. search_after分页
    3.1 search_after的命令行实现
    3.2 search_after的的RestHighLevelClient实现
  4. 总结

正文

ES作为数据源的分页查询。 数据量如果过大,使用浅分页可能会引发性能问题,可以考虑search_after深分页,当然是要根据具体业务场景进行分析。

分页一般有三种方式:

  1. es默认采用的是from+size形式,在深度分页的情况下,这种效率是非常低的,但是可以随机跳转页面;
  2. scroll search 方式(滚动搜索),官方的建议并不是用于实时的请求,因为每一个 scroll_id 不仅会占用大量的资源(特别是排序的请求),而且是生成的历史快照,对于数据的变更不会反映到快照上。这种方式往往用于非实时处理大量数据的情况,比如要进行数据迁移或者索引变更之类的。
  3. search_after方式(滚动搜索),可以在实时的情况下处理深度分页,在Es5.x版本后提供的功能,search_after缺点是不能够随机跳转分页,只能是一页一页的向后翻,并且需要至少指定一个唯一不重复字段来排序。

1. from+size分页

Es封装RestHighLevelClient和BulkProcessor的工具类

1.1 from+size的命令行实现

GET /test_demo/_search
{
  "query":{
    "match_all": {}
  },
  "from":5000,
  "size":10
}

上面意味着es需要在各个分片上匹配排序并得到5010条数据,协调节点拿到这些数据再进行排序,然后结果集中取最后10条数据返回。

上述语句性能低的原因:我们只需要10条数据,而es每个分片都需要执行from+size条数据然后处理后返回。

es为了性能,会限制我们分页的深度,es目前支持最大的max_result_window = 10000,也就是from+size的大小不能超过10000。

image.png

1.2 from+size的RestHighLevelClient实现

    /**
     * 浅分页查询
     *
     * @throws IOException
     */
    public static void testPage() throws IOException {
        SearchRequest searchRequest = new SearchRequest();
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        //排序条件
        searchSourceBuilder.sort("id", SortOrder.ASC);
        searchSourceBuilder.sort("publishTime", SortOrder.DESC);
        //分页查询
        searchSourceBuilder.from(2);
        searchSourceBuilder.size(2);
        EsUtil.remoteSearch(searchRequest, searchSourceBuilder);
    }

2. scroll 分页

在es中我们分页要请求大数据集或者一次请求要获取大的数据集,scroll[skrəʊl]都是一种非常好的解决方案。

scroll也是滚动搜索。会在第一次搜索的时候,保存一个当时的快照。之后只会基于该旧的视图快照提供数据搜索。在这个期间发生变动,是不会让用户看到的。

官方的建议并不是用于实时的请求,因为每一个 scroll_id 不仅会占用大量的资源(特别是排序的请求),而且是生成的历史快照,对于数据的变更不会反映到快照上。这种方式往往用于非实时处理大量数据的情况,比如要进行数据迁移或者索引变更之类的。

2.1 scroll分页的命令行实现

  • 第一步:进行搜索,生成scrollId。
GET test_demo/_search?scroll=1m
{
    "size":2,
    "query":{
        "terms":{
            "tag":[
                "疫情"
            ],
            "boost":"1.0"
        }
    }
}
  • 后续在使用第一步生成的scrollId进行滚动查询。
POST /_search/scroll
{
  "scroll": "5m",
  "scroll_id": "DXF1ZXJ5QW5kRmV0Y2gBAAAAAAAylJEWQ3Z4cHRTRzVTeXVqRG9YY1R5Q3hYdw=="
}

2.2 scroll的RestHighLevelClient实现

    public static void testScroll() throws IOException {
        SearchRequest searchRequest = new SearchRequest();

        //失效时间为1min
        Scroll scroll = new Scroll(TimeValue.timeValueMinutes(1));
        //封存快照
        searchRequest.scroll(scroll);
        /**
         * 查询条件
         */
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("tag", "疫情");
        searchSourceBuilder.query(termQueryBuilder);
        /**
         * 分页参数
         */
        searchSourceBuilder.size(2);
        searchRequest.indices("test_demo");

        //放入文档中
        searchRequest.source(searchSourceBuilder);

        log.info("dsl:" + searchSourceBuilder.toString());
        //远程查询
        SearchResponse searchResponse = EsUtil.getRestHighLevelClient().search(searchRequest, RequestOptions.DEFAULT);
        //元素数量
        Iterator<SearchHit> it1 = searchResponse.getHits().iterator();
        while (it1.hasNext()) {
            SearchHit next = it1.next();
            log.info("输出数据:" + next.getSourceAsString());
        }
        log.info("=======================||");
        //计算总数量
        long totalCount = searchResponse.getHits().getTotalHits().value;
        //得到总页数
        int page = (int) Math.ceil((float) totalCount / 2);
        //多次遍历分页,获取结果
        String scrollId = searchResponse.getScrollId();
        for (int i = 1; i <= page; i++) {
            //获取到该id
            SearchScrollRequest searchScrollRequest = new SearchScrollRequest(scrollId);
            searchScrollRequest.scroll(scroll);
            SearchResponse response = EsUtil.getRestHighLevelClient().scroll(searchScrollRequest, RequestOptions.DEFAULT);
            //打印数据
            SearchHits hits = response.getHits();
            scrollId = response.getScrollId();
            Iterator<SearchHit> iterator = hits.iterator();
            while (iterator.hasNext()) {
                SearchHit next = iterator.next();
                log.info("输出数据:" + next.getSourceAsString());
            }
            log.info("=======================");
        }
    }

3. search_after分页

可以在实时的情况下处理深度分页,在Es5.x版本后提供的功能,search_after缺点是不能够随机跳转分页,只能是一页一页的向后翻,并且需要至少指定一个唯一不重复字段来排序。

3.1 search_after的命令行实现

注意:search_after必须指定一个唯一不重复的字段来排序,此处我们指定了两个字段进行排序,

该例子:id是唯一不重复字段,publishTime可能会重复。

GET test_demo/_search
{
  "query": {
    "match_all": {
      
    }
  },
    "size": 2,
    "sort":[
      {"id":"asc"},
      {"publishTime":"desc"}
    ]
}
image.png

注意,结果返回的sort字段,存储的是最后一组的排序字段的值,而search_after在下次搜索时,需要携带该数据。

image.png

最终完成了滚动分页操作。

3.2 search_after的的RestHighLevelClient实现

    public static void testSearchAfter() throws IOException {
        SearchRequest searchRequest = new SearchRequest();
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        //排序条件
        searchSourceBuilder.sort("id", SortOrder.ASC);
        searchSourceBuilder.sort("publishTime", SortOrder.DESC);
        //分页查询
        searchSourceBuilder.size(2);
        List<SearchHit> remoteSearch = EsUtil.remoteSearch(searchRequest, searchSourceBuilder);
        //查询最后一笔数据
        SearchHit result = remoteSearch.get(remoteSearch.size() - 1);
        //序列化为对象
        //分页查询下一页数据
        log.info("=====================下一页============================");
        SearchRequest searchRequest2 = new SearchRequest();
        SearchSourceBuilder searchSourceBuilder2 = new SearchSourceBuilder();
        //排序条件
        searchSourceBuilder2.sort("id", SortOrder.ASC);
        searchSourceBuilder2.sort("publishTime", SortOrder.DESC);

        //存储上一次分页的sort信息
        searchSourceBuilder2.searchAfter(result.getSortValues());
        searchSourceBuilder2.size(2);
        EsUtil.remoteSearch(searchRequest2, searchSourceBuilder2);
    }

4. 总结

image.png

推荐阅读

Elasticsearch 深入理解search After 处理深度分页问题

elasticsearch深度分页问题

Es封装RestHighLevelClient和BulkProcessor的工具类

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,056评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,842评论 2 378
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,938评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,296评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,292评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,413评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,824评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,493评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,686评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,502评论 2 318
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,553评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,281评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,820评论 3 305
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,873评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,109评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,699评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,257评论 2 341

推荐阅读更多精彩内容