HIVE 2.3.4 本地安装与部署 (Ubuntu)

HIVE 2.3.4 本地安装与部署 (Ubuntu)


配置环境总是令人头大!

苦苦挣扎数日后,博主总算活过来了!

特分享成功配置HIVE的过程!

类似Hadoop,Hive也有三种也不同的部署模式(本文采用第二种):

  1. 内嵌模式:将元数据保存在Hive内嵌的Derby数据库中,只允许一个会话连接
  1. 本地模式:(以MySQL为例)在本地安装MySQL,将元数据保存在MySQL中,支持多个会话、多用户连接
  1. 远程模式:将元数据保存在远端数据库中

基本环境:

  • Ubuntu 18.04 (Ubuntu 16.04 同样适用噢)

  • Hadoop 2.9.1

注:本文在已配置Hadoop的用户(用户名为hadoop)下执行操作。

1.下载安装hive


  • 下载hive

    • 可以从Apache官方镜像直接下载:

    https://mirrors.tuna.tsinghua.edu.cn/apache/hive/

    • 也可以通过命令行命令:

    wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.4/apache-hive-2.3.4-bin.tar.gz

  • 解压缩到路径 /usr/local

tar -zxvf ./apache-hive-2.3.4-bin.tar.gz -C /usr/local/

  • 重命名

sudo mv apache-hive-2.3.4-bin hive

2.配置Hive


2.1 配置环境变量

vim ~/.bashrc

也可用gedit等其他编辑器打开并编辑

在 bashrc 中添加


# /usr/local/hadoop 为 Hadoop 安装目录

export PATH=$PATH:/usr/local/hadoop/sbin:/usr/local/hadoop/sbin:/usr/local/hive/bin

export HIVE_HOME=/usr/local/hive

export PATH=$PATH:$HIVE_HOME/bin

保存后,执行

source ~/.bashrc

使文件生效

2.2 修改配置文件 hive-site.xml

进入hive配置目录:

cd /usr/local/hive/conf

将hive-default.xml.template重命名为hive-default.xml

sudo mv hive-default.xml.template hive-default.xml

新建一个配置文件hive-site.xml并编辑

sudo vim hive-site.xml

在hive-site.xml中写入MySQL配置信息(虽然我们还没有安装MySQL):

注意,第三部分<value>hadoop</value>处hadoop为MySQL用户名

同样,第四部分<value>123456</value>处123456为MySQL密码


<?xml version="1.0" encoding="UTF-8" standalone="no"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

  <property>

    <name>javax.jdo.option.ConnectionURL</name>

    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>

    <description>JDBC connect string for a JDBC metastore</description>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionDriverName</name>

    <value>com.mysql.jdbc.Driver</value>

    <description>Driver class name for a JDBC metastore</description>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionUserName</name>

    <value>hadoop</value>

    <description>username to use against metastore database</description>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionPassword</name>

    <value>123456</value>

    <description>password to use against metastore database</description>

  </property>

</configuration>

2.3修改配置文件 hive-env.xml

将hive-env.xml.template重命名为hive-env.xml:

sudo mv hive-env.xml.template hive-env.xml

在hive-env.xml中增加:


# Hadoop的位置:

export HADOOP_HOME=/usr/local/hadoop

# hive的conf目录位置:

export HIVE_CONF_DIR=/usr/local/hive/conf

# hive的lib目录位置:

export HIVE_AUX_JARS_PATH=/usr/local/hive/lib

3. 下载安装MySQL


3.1 安装

更新软件源: sudo apt-get update

安装MySQL:sudo apt-get install mysql-server

安装过程会设置root用户密码,设置完成后自动安装即可

3.2 启动MySQL

service mysql start

3.3 检查是否启动成功

sudo netstat -tap | grep mysql

有mysql信息即启动成功,也说明安装成功

3.4 配置驱动(mysql jdbc,本文使用5.1.46版本)

命令行下载:

sudo wget https://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.46.tar.gz

解压:

sudo tar -zxvf mysql-connector-java-5.1.46.tar.gz

移动到hive/lib目录下

sudo cp mysql-connector-java-5.1.46/mysql-connector-java-5.1.46-bin.jar /usr/local/hive/lib

友情提醒,这里有个坑... 如果使用其他版本connector,版本不宜过低

4.配置权限


4.1 配置MySQL接入权限


# root登陆MySQL:

sudo mysql -u root -p

# 进入mysql shell,注意 ";" 标识一条命令结束

# 授予权限给用户hadoop,密码123456:

mysql> GRANT ALL ON *.* TO 'hadoop'@'%' IDENTIFIED BY '123456';

# 配置成功,回显:

Query OK, 0 rows affected, 1 warning (0.02 sec)

# 退出:

mysql> exit;

# 退出成功,回显:

Bye

之后可以以hadoop用户(非授权用户需要 sudo 指令)

mysql -u hadoop -p

登陆 mysql shell

4.2 创建仓库并配置权限

在hdfs上创建相关仓库,并配置权限:

若未启动hadoop,请先启动hadoop


hadoop fs -mkdir -p /user/hive/warehouse

hadoop fs -mkdir -p /user/hive/tmp

hadoop fs -mkdir -p /user/hive/log

hadoop fs -chmod -R 777 /user/hive/warehouse

hadoop fs -chmod -R 777 /user/hive/tmp

hadoop fs -chmod -R 777 /user/hive/log

注意,直接调用hadoop fs命令需要已配置相关环境变量

4.3 初始化

cd /usr/local/hive/bin

schematool -initSchema -dbType mysql

看到 schemaTool completed ,即初始化成功!

5.启动hive及测试



请先确保 hadoop 已正常启动!

# 启动hive(由于已配置相关环境变量,直接使用):

hive

# 启动成功,启动过程提示信息结束后,回显:

hive>

# 说明已成功启动。同样,注意 ";" 标识一条命令结束!

5.1 测试 hive


# 显示数据库:

hive> show databases;

OK

default

Time taken: 14.107 seconds, Fetched: 1 row(s)

# 创建一个表:

hive> create table test1(tid int, tname string);

OK

Time taken: 5.021 seconds

# 显示tables:

hive> show tables;

OK

test1

Time taken: 5.077 seconds, Fetched: 1 row(s)

# 删除刚刚创建的表test1:

hive> drop table test1;

OK

Time taken: 5.223 seconds

# 重新创建表 test1(用于mysql测试):

hive> create table test1(tid int, tname string);

OK

Time taken: 1.322 seconds

# 退出 hive shell

hive> exit;

5.2 测试 mysql


# hadoop 用户进入mysql

mysql -u hadoop -p

# 输入密码后,进入mysql shell

mysql>

# 显示数据库:

mysql> show databases;

+--------------------+

| Database          |

+--------------------+

| information_schema |

| hive              |

| mysql              |

| performance_schema |

| sys                |

+--------------------+

5 rows in set (0.11 sec)

# 使用hive数据库

mysql> use hive;

Reading table information for completion of table and column names

You can turn off this feature to get a quicker startup with -A

Database changed

# 显示我们刚刚创建的表(记录在table TBLS中)

mysql> select * from TBLS;

+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+--------------------+

| TBL_ID | CREATE_TIME | DB_ID | LAST_ACCESS_TIME | OWNER  | RETENTION | SD_ID | TBL_NAME | TBL_TYPE      | VIEW_EXPANDED_TEXT | VIEW_ORIGINAL_TEXT | IS_REWRITE_ENABLED |

+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+--------------------+

|      1 |  1543335170 |    1 |                0 | hadoop |        0 |    1 | test1    | MANAGED_TABLE | NULL              | NULL              |                    |

+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+--------------------+

1 row in set (0.00 sec)

# 在上面,我们可以看到OWNER:hadoop,TBL_NAME:test1,即我们刚刚创建的表

# 退出:

mysql> exit;

Bye

到此,我们的配置就大功告成了!

如果想使用远程连接mysql,主要需要修改 hive-site.xml 文件中第一部分 ConnectionURL。



参考博客

感谢这些博主提供的基础步骤和问题解决方案!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,271评论 5 466
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,725评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,252评论 0 328
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,634评论 1 270
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,549评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,985评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,471评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,128评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,257评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,233评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,235评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,940评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,528评论 3 302
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,623评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,858评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,245评论 2 344
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,790评论 2 339

推荐阅读更多精彩内容

  • 前言: Hadoop的课程已经告一段落,基本上在零基础课程里不会再出现了,接下来的课程由若总来上,第一讲Have。...
    ly稻草阅读 3,502评论 1 9
  • 一、Hive概述 HIve是什么?为什么要使用hive?对于一个初步接触hive的初学者,这些都是迷惑的,因此本文...
    不清不慎阅读 786评论 0 4
  • 动态方法解析和转发 在上面的例子中,如果 foo没有找到会发生什么?通常情况下,程序会在运行时挂掉并抛出 unre...
    Crazy2015阅读 294评论 0 0
  • 大家好!大家都知道童年吧!童年,我们的童年都是好的吧!不也算是好的吧。但是一,和爸爸妈妈,比起呢?他们可...
    刘国栋星期几都是好人阅读 262评论 0 1
  • 刚从西安回到北京的家里坐定,已是凌晨。路上看完了余华先生新作(也许不是最新作,只是对于我而言是新作而已。)有些胸闷...
    陈苼阅读 502评论 1 1