Spark local模式- 连接hadoop、hive集群

这种模式非常适合调试信息

1. spark local模式连接远程hadoop集群

  1. 创建test.txt文件,写入几行数据,上传到hdfs中
  2. 把hadoop集群的配置文件core-site.xmlhdfs-site.xml复制到项目的resources目录下

经过测试,linux下运行idea,没有这两个文件也能连上hadoop集群

  1. 创建scala代码
package hdfs

import org.apache.spark.sql.SparkSession

object HdfsTest {

  def main(args: Array[String]): Unit = {

    // 如果在windows本地跑,需要从widnows访问HDFS,需要指定一个合法的身份
//    System.setProperty("HADOOP_USER_NAME", "hdfs")

    val spark = SparkSession.builder()
      .appName("hdfs-test")
      .master("local")
      // 设置参数
      .config("dfs.client.use.datanode.hostname", "false")
      .getOrCreate();

    //    spark.sparkContext.setLogLevel("DEBUG")

    //支持通配符路径,支持压缩文件读取
    val path = "hdfs://10.121.138.145:8020/test.txt"
    val rdd = spark.read.textFile(path)
    //统计数量
    println("count = "+rdd.count())
    //停止spark
    spark.stop()
  }

}

重点说明:

  1. 如果在windows下运行,请添加System.setProperty("HADOOP_USER_NAME", "hdfs")代码,否则会提示Permission Denied
  2. CDH默认dfs.client.use.datanode.hostnametrue,意思为使用hostname连接hdfs,如果我们不修改本机的host文件,本地是无法连接datanode机器。有三种方式解决
  • 修改本机的host,需要配置上所有的hadoop的host及ip
  • 修改hdfs-site.xml配置中的dfs.client.use.datanode.hostnamefalse
  • 代码中通过sparkSession设置.config("dfs.client.use.datanode.hostname", "false")

直接运行此代码即可,如果输出test.txt中的文本行数,恭喜你实验成功!!

2. spark local模式连接远程hive集群

连接hive集群,没有找到类似dfs.client.use.datanode.hostnamehive相关的配置,所以只能通过hosts文件来解决。

第一步:修改本机hosts文件,配置hive集群的hostname及ip

修改本机hosts文件,让本机能够解析hive集群中的机器名及ip
比如我的配置:

 10.121.138.145 lfg00 
 10.121.138.146 lfg01 
 10.121.138.147 lfg02 
 10.121.138.148 lfg03 

第二步:连接hive

这步有两种方式:

  1. 复制hive的配置文件hive-site.xml至项目的resources文件夹下
  2. 在代码中增加.config("hive.metastore.uris","thrift://lfg00:9083")

第三步:代码

package hdfs

import org.apache.spark.sql.SparkSession
import utils.GeoHash

/**
  * 从hadoop读取数据,计算geohash并写入hadoop/hive
  */
object GeohashTest {

  def main(args: Array[String]): Unit = {

    // 如果在windows本地跑,需要从widnows访问HDFS,需要指定一个合法的身份
    //    System.setProperty("HADOOP_USER_NAME", "hdfs")

    val spark = SparkSession.builder()
      .appName("hdfs-test")
      .master("local")
      // use ip
      .config("dfs.client.use.datanode.hostname", "false")
      // 如果输出目录已存在,则直接覆盖
      .config("spark.hadoop.validateOutputSpecs", "false")
      // 连接hive地址,如果复制hive-site.xml到resources下,则不需要此配置
      // .config("hive.metastore.uris","thrift://lfg00:9083")
      // 启用hive支持
      .enableHiveSupport()
      .getOrCreate();

    //    spark.sparkContext.setLogLevel("DEBUG")

    //支持通配符路径,支持压缩文件读取
    val inputPath = "hdfs://10.121.138.145:8020/test/put2/*"

    writeToHive(spark,inputPath)

    //停止spark
    spark.stop()
  }

  /**
    * 写入hive
    * @param spark
    * @param inputPath
    */
  def writeToHive(spark:SparkSession, inputPath:String): Unit = {

    val cols = List("lat", "lng", "value", "hash")
    val rdd = spark.read.textFile(inputPath)
    import spark.implicits._
    val out = rdd.map(line => {
      val columns = line.split(",")
      // 计算geohash
      val hash = GeoHash.encode(columns(0).toDouble, columns(1).toDouble, 8)
      (columns(0), columns(1), columns(2), hash)
    }).toDF(cols: _*)

    out.printSchema()
    // 创建临时表
    out.createOrReplaceTempView("tmp_data")
    // 把临时表数据写入hive
    spark.sql(
      """
        | insert overwrite table unicomm_poc.test_geohash  select * from tmp_data
        |""".stripMargin)

  }
}
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容