转发是对小编的最大支持
在湿货|大数据测试之hadoop单机环境搭建(超级详细版)这个基础上,我们来运行一个官网的MapReduce demo程序来看看效果和处理过程。
大致步骤如下:
新建一个文件test.txt,内容为
Hello Hadoop
Hello xiaoqiang
Hello testingbang
Hello http://xqtesting.sxl.cn
将test.txt上传到hdfs的根目录
/usr/lib/hadoop/hadoop-2.7.4/bin/hdfs dfs -put /root/install/test.txt /
这里还是要推荐下小编的大数据学习QQ裙:532218147,不管你是小白还是大牛,小编我都欢迎,不定期分享干货,包括小编自己整理的一份2018最新的大数据资料和0基础入门教程,欢迎初学和进阶中的小伙伴。在不忙的时间我会给解答
然后浏览器访问可以看到刚才上传的文件,如下图
运行官方的一个wordcount程序来统计字符数量,命令如下:
/usr/lib/hadoop/hadoop-2.7.4/bin/hadoop jar /usr/lib/hadoop/hadoop-2.7.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar wordcount hdfs://localhost:9000/test.txt hdfs://localhost:9000/out
解释下这个命令,大致意思是用hadoop执行一个叫hadoop-mapreduce-examples-2.7.4.jar的wordcount 方法,其中输入参数为hdfs上根目录的test.txt 文件,而输出路径为hdfs跟目录下的out目录
PS:我这里没有把hadoop配置成环境变量,所以命令很长,你可以配置下,这样命令就会短很多了,至于怎么配置,自己悟~
执行过程如下:
执行完成之后再次刷新浏览器可以看到out目录和结果了
点击part-r-00000,在弹出的页面点击download
这时候下载会出现404,我们只需要在URL里的localhost改为你服务器的ip地址就可以下载了。下载之后用编辑器打开,内容如下:
PS:你也可以用命令查看,如下图
到这里,我们既完成了hadoop环境的搭建,也完成一次MapReduce的执行。其实也算是对hadoop功能的测试。如果你都成功了,那么恭喜你!如果你没有成功,那么也恭喜你,因为你发现了自己的不足!
最后,大家请多多转发本文,每一步都是小编自己做的,耗费了很多脑细胞~转发才是对小编的最大支持哦