ElasticSearch 1.7.2 升级到 2.X 的流程

ElasticSearch 1.7.2 升级到 2.X 的流程

之前在做Elasticsearch 1.4.4 到 1.7.2 升级的过程中, 直接替换ES程序即可, 升级很平滑.但是这次从1.7.2版本升级到2.1.0版本就不那么顺利了. 下面会记录升级整个过程中碰到的问题.

升级步骤

ES集群升级

这次升级官方给出了很多Breaking changes, 但是我们可以借助ES一个插件来帮助我们分析, 现有ES集群需要做出哪些改动才可以顺利升级到2.X版本.

  • 插件安装: ./bin/plugin -i elastic/elasticsearch-migration
    查看原集群中哪些配置和2.x版本冲突, 我们这里碰到的问题是, 在mapping配置里面, 如果是同一个索引模板中,不同的type,里面如果字段名字有一样的, 但是字段模块不一致的需要修改, 即使名字一样,有的设置了分词, 有的设置了不分词也是不可以的. 2.x版本的索引压缩有很大改进.

  • 下载最新版本

  • 将原版下的 $ES_HOME/config 下的文件全部copy到新版本中

  • 将$ES_HOME/bin/elasticsearch.in.sh elasticsearch 两个文件copy到新版本中相应的路径中, 然后修改该文件中elasticsearch.x.x.jar为新版本的jar

  • $ES_HOME/plugins 文件夹copy到新版 $ES_HOME目录下

  • 针对IK分词, 需要安装最新版本

    • 获取最新版本并编译, copy到新版$ES_HOME/plugins/ik下

      git clone https://github.com/medcl/elasticsearch-analysis-ik
      cd elasticsearch-analysis-ik
      mvn clean
      mvn compile
      mvn package
      copy & unzip file  #{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-xxx.zip to your elasticsearch's folder: plugins/ik
      
    • 将ik项目的config/ik中的内容copy到your-es-root/config/ik中

  • 更新 head 插件
    ./bin/plugin install mobz/elasticsearch-head

  • 安装sql插件
    ./bin/plugin install https://github.com/NLPchina/elasticsearch-sql/releases/download/2.1.0/elasticsearch-sql-2.1.0.zip
    如果碰见版本不一致的,需要修改插件内部的plugin配置文件, 将其中es版本修改为匹配的.
    安装该插件后必须要重启

  • 安装kopf插件
    './elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf/{branch|version}'

  • elasticsearch.yml 配置文件中的改动

    • 去除 index.analysis.analyzer.default.type : "ik"
    • 添加主机host network.host: 192.168.10.235

    如果配置中有配置自动发现的,注释掉, 并改为单播模式

    #ping 其它节点的超时时间
    #discovery.zen.ping_timeout: 30s
    #要选出可用master, 最少需要几个master节点
    #discovery.zen.minimum_master_nodes: 2
    discovery.zen.ping.unicast.hosts: "192.168.10.235:9309,192.168.10.236:9309,192.168.10.237:9309"
    
  • 将$ES_HOME/bin/elasticsearch.in.sh 文件中添加如下内容

     ES_HEAP_SIZE=8g
     ES_GC_LOG_FILE="/eagleye/data/esdata/logs/esgc.log"
    

    如果使用的是jdk1.8将如下需要做如下改动

     # Add gc options. ES_GC_OPTS is unsupported, for internal testing
      if [ "x$ES_GC_OPTS" = "x" ]; then
      #  ES_GC_OPTS="$ES_GC_OPTS -XX:+UseParNewGC"
      #  ES_GC_OPTS="$ES_GC_OPTS -XX:+UseConcMarkSweepGC"
      #  ES_GC_OPTS="$ES_GC_OPTS -XX:CMSInitiatingOccupancyFraction=75"
      #  ES_GC_OPTS="$ES_GC_OPTS -XX:+UseCMSInitiatingOccupancyOnly"
        ES_GC_OPTS="$ES_GC_OPTS -XX:+UseG1GC"
      fi
    
  • 复制原集群的索引元数据到新集群中(重要)
    元数据在master节点的data目录下, 将该目录下的所有元数据copy到新版本集群中相应位置即可

  • 2.1.1版本已经将config目录下的index template移除, 如果是新建索引在原先config/template下的索引模板将不起作用, 如果需要给某个索引配置模板可以参考官方文档

  • 关闭自动分片

    curl -XPUT http://192.168.1.2:9200/_cluster/settings -d 
    '{ 
        "transient" : { 
            "cluster.routing.allocation.enable" : "none" 
        } 
    }'
    
  • 同步flush操作
    如果不允许任何丢失, 需要执行该操作, 如果可以容忍在短时间内的数据丢失, 可以忽略这一步骤

    
    curl -XPOST http://192.168.1.2:9200/_flush/synced
    
  • 需要同时停止所有集群的es服务, 然后挨个重启

    curl -XPOST http://192.168.1.3:9200/_cluster/nodes/_local/_shutdown
    

ES的客户端升级

这里主要描述java客户端的改动.

  • pom中的es引用变更为

    <dependency>
       <groupId>org.elasticsearch</groupId>
       <artifactId>elasticsearch</artifactId>
       <version>2.1.1</version>
    </dependency>
    

    注意: 该版本依赖google的guava-18.0版本, 我们项目中依赖的guava-15.0导致,spring启动NoSuchClass异常, 需要同时升级guava版本

  • 创建客户端的改动,下面是具体变更之后的内容,官方文档可以看这具体看这里

    • ESClient变更

       public ESClient(String clusterName, String esNodes) {
          //Settings settings = ImmutableSettings.settingsBuilder()
          Settings settings = Settings.builder()
                  .put("cluster.name", clusterName)
                  .put("client.transport.sniff", false)
                  .build();
          this.client = TransportClient.builder().settings(settings).build();//new TransportClient(settings);
          String[] esNodeList = esNodes.split(",");
          for (String serv : esNodeList) {
              String[] node = serv.split(":");
              if (node.length == 2) {
          //this.client.addTransportAddress(new InetSocketTransportAddress(node[0], Integer.valueOf(node[1])));
                  this.client.addTransportAddress(new InetSocketTransportAddress(new InetSocketAddress(node[0], Integer.valueOf(node[1]))));
              }
          }
      }
      
      
    • 依赖的jackson版本需要跟着变更

      <fasterxml.jackson.version>2.6.2</fasterxml.jackson.version>
      
    • 查询代码需要将所有Filter变更为Query

    • 2.1.1版本中tribe节点无法加入集群中,具体看Github上针对这个问题的issue

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,519评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,842评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,544评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,742评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,646评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,027评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,513评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,169评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,324评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,268评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,299评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,996评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,591评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,667评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,911评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,288评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,871评论 2 341

推荐阅读更多精彩内容