maven工程打包,单节点跑wordcount(一)

spark shell仅在测试和验证我们的程序时使用的较多,在生产环境中,通常会在IDE中编制程序,然后打成jar包,然后提交到集群,最常用的是创建一个Maven项目,利用Maven来管理jar包的依赖。首先在IDEA上编辑maven工程,在maven工程中的src填写wordcount代码,在xshell上运行(需连接集群结点),因wordcount程序运行需txt文档,因此还涉及在hdfs上的一些基本操作

一、在IDEA上编写maven(WordCount)的spark程序

1.新建maven工程,填写GroupId,ArtifactId(groupid(公司名+人名+项目名)artifactid(项目名),用maven打出的jar包,包名是artifactid中的项目)


图片.png
图片.png

2.将下方程序复制在Maven的pom.xml文件中

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"

         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>com.cai</groupId>
    <artifactId>wordcount1</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>1.7</maven.compiler.source>
        <maven.compiler.target>1.7</maven.compiler.target>
        <encoding>UTF-8</encoding>
        <scala.version>2.10.6</scala.version>
        <scala.compat.version>2.10</scala.compat.version>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>${scala.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.5.2</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.10</artifactId>
            <version>1.5.2</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.6.0</version>
        </dependency>
    </dependencies>

    <build>
        <sourceDirectory>src/main/scala</sourceDirectory>
        <testSourceDirectory>src/test/scala</testSourceDirectory>
        <plugins>
            <plugin>
                <groupId>net.alchim31.maven</groupId>
                <artifactId>scala-maven-plugin</artifactId>
                <version>3.2.0</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                        <configuration>
                            <args>
                                <arg>-make:transitive</arg>
                                <arg>-dependencyfile</arg>
                                <arg>${project.build.directory}/.scala_dependencies</arg>
                            </args>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-surefire-plugin</artifactId>
                <version>2.18.1</version>
                <configuration>
                    <useFile>false</useFile>
                    <disableXmlReport>true</disableXmlReport>
                    <includes>
                        <include>**/*Test.*</include>
                        <include>**/*Suite.*</include>
                    </includes>
                </configuration>
            </plugin>

            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>2.3</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <filters>
                                <filter>
                                    <artifact>*:*</artifact>
                                    <excludes>
                                        <exclude>META-INF/*.SF</exclude>
                                        <exclude>META-INF/*.DSA</exclude>
                                        <exclude>META-INF/*.RSA</exclude>
                                    </excludes>
                                </filter>
                            </filters>
                            <transformers>
                                <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
                                    <mainClass>com.cch.WordCount.wordcount</mainClass>
                                </transformer>
                            </transformers>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>
</project>

注意:配置好pom.xml以后,点击Enable Auto-Import.坑:查看你的hadoop版本(我的是2.6.9)是否与上述pom.xml匹配,相应位置修改。

3.将src/main/java和src/test/java分别修改成src/main/scala和src/test/scala,与pom.xml中的配置保持一致();


图片.png

4.使用Maven打包:首先修改pom.xml中的<mainClass>,在此处是否是程序入口,与自己程序对应,本文的程序入口是com.cai.wordcount1。之后点击idea右侧的Maven Project选项,点击Lifecycle,选择clean和package,点击RUN:


图片.png

图中的程序就是wordcountspark源码

import org.apache.spark.{SparkConf, SparkContext}
object WordCount {
  def main(args: Array[String]): Unit = {
    //创建SparkConf()并且设置App的名称
    val conf = new SparkConf().setAppName("wordCount");
    //创建SparkContext,该对象是提交spark app的入口
    val sc = new SparkContext(conf);
    //使用sc创建rdd,并且执行相应的transformation和action
    sc.textFile(args(0)).flatMap(_.split(" ")).map((_ ,1)).reduceByKey(_ + _,1).sortBy(_._2,false).saveAsTextFile(args(1));
    //停止sc,结束该任务
    sc.stop();
  }
}

5.等待编译完成后,选择编译成功的jar包,并将改jar上传到Spark集群中的某个节点上,jar包在上方图片左侧target中wordcount1-1.0-SNAPSHOT.jar

二、上传到spark集群,运行程序,需用到xshell、xftp工具(首先在官网下载好)

1.打开Xshell->新建->填写链接的主机地址->新建好后输入用户名和密码,建立连接(通过xshell将你自己的电脑和服务器上的linux系统的电脑链接上)。


图片.png

2.使用xftp,xftp是将本地文件传到远程Linux系统的工具,具体如下:将jar包和WordCount.txt,从做向右拖拽至/home/hdfs(自己建的文件夹)即可实现上传到远程Linux系统上。


图片.png

因为我们这个程序需要统计WordCount文档中各个词的词数,提前写好了一个WordCount.txt供程序统计,本文想实现分布式存储,因此需要将WordCount.txt上传到分布式文件存储系统中hdfs,具体代码如下:
[root@data6 ~]# su hdfs                          //切换成hdfs用户(root用户没有权限)

[hdfs@data6 root]$ cd /home/hdfs/software/hadoop/bin     //切换到hadoop中的bin目录下,因为hadoop的bin文件夹是对hdfs操作的接口,这样才可以操作hdfs
[hdfs@data6 bin]$ ./hadoop fs -mkdir /inn                           //在hdfs系统上创建inn目录,这个系统使我们看不到的
[hdfs@data6 bin]$ ./hadoop fs -ls /                                      //查看创建的目录
图片.png

由图片可以看出inn文件夹已经存在在hdfs系统中

[hdfs@data6 bin]$ ./hadoop fs -put /home/hdfs/WordCount.txt /inn       //将本地文件夹home中的hdfs中的WordCount.txt文件上传到inn目录下
图片.png

现在需要的文档提交完了,那么只需要运行jar包了

jar包在/home/hdfs目录下,因此先将现在的目录回退到个人用户目录下
[hdfs@data6 /]$ cd ~               //通过这个命令,以后的命令行下面就变成了,即变成了[hdfs@data6 ~]$,表示的是hdfs中的个人用户
[hdfs@data6 ~]$ /home/hdfs/software/spark/bin/spark-submit --class com.bie.WordCount sparkWordCount-1.0-SNAPSHOT.jar hdfs://#########:9000/inn/WordCount.txt hdfs://#######:9000/outputc 

最后一条命令解释一下:因为在spark集群,因此先进入(spark的bin文件夹中/home/hdfs/software/spark/bin/)+(spark-submit命令)+(--class,这个表示此程序的入口,程序入口为com.bie.WordCount)+(jar包名)
+(WordCount.txt的位置,在我们集群inn文件夹中)+(这里是结果的位置,如果没有,会直接新建个目录outputc),若运行成功,会直接显示下一条命令。


图片.png

查看结果目录outputc,并查看目录下的part-00000 结果文件内容,大功告成。

原创作品。禁止转载!!!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,681评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,710评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,623评论 0 334
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,202评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,232评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,368评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,795评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,461评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,647评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,476评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,525评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,226评论 3 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,785评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,857评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,090评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,647评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,215评论 2 341