大数据平台搭建(纯文字版)

  1. 安装虚拟机环境
    下载VMware并安装、破解
    在VMWare官网上http://www.vmware.com/ ,选择VMware workstation12 pro版本安装。

  2. 创建虚拟机
    在Ubuntu的官网https://www.ubuntu.com/上下载, ubuntu-14.04.4-desktop-amd64.iso,该版本为稳定的维护的版本。

  3. 安装VMWare Tools
    ①启动Ubuntu系统,进入到桌面
    ②单击VMWare的【虚拟机】菜单,选择【安装VMWare Tools】命令
    系统会自动挂载VMWare Tools,并自动打开
    ③解压tar.gz包
    将压缩包复制到桌面,打开terminal,执行解压命令
    tar -zxvf VMwareTools-10.0.0-2977863.tar.gz
    ④安装VMWare Tools
    切换到文件夹下,执行安装文件,重启后生效
    cd Desktop/vmware-tools-distrib/
    sudo ./vmware-install.pl

  4. 使用共享文件夹
    ①在物理机Windows系统中创建一个文件夹,用作共享文件夹
    ②在虚拟机关闭的情况下,打开虚拟机设置,在弹出的对话框中单击【选项】
    ③单击【共享文件夹】,在右侧选择【总是启用】选项,单击【添加】按钮
    ④在弹出的向导对话框中,进行如下操作,添加共享文件夹
    ⑤启动虚拟机系统,共享文件夹被放在【/mnt/hgfs/】目录下,即在【/mnt/hgfs/share】中就可以找到被共享的文件了

  5. 安装JDK
    ①下载jdk安装包,放入物理机的共享文件夹
    当前官网的最新版本jdk1.8.0_05
    ②解压安装jdk
    进入虚拟机,切换到共享文件夹下,输入命令进行安装
    cd /mnt/hgfs/share
    sudo tar zxvf jdk-8u5-linux-x64.gz -C /usr/local/
    ③配置hadoop用户环境变量
    sudo gedit ~/.bashrc
    打开后添加:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    export PATH=${JAVA_HOME}/bin:$PATH
    保存后退出
    ④配置默认jdk版本
    sudo update-alternatives --install /usr/local/jdk1.8.0_65 /bin/java 300
    sudo update-alternatives --install /usr/local/jdk1.8.0_65 /bin/javac 300
    sudo update-alternatives --config java
    ⑤刷新配置
    source ~/.bashrc
    ⑥查看环境是否配置成功
    java -version

  6. 系统环境配置
    ①修改主机名:
    (1)临时修改:
    sudo hostname master
    (2)永久修改:
    sudo gedit /etc/hostname
    修改后重启生效
    ②设置固定IP
    sudo gedit /etc/network/interfaces
    在其中写入:
    auto eth0
    iface eth0 inet static
    address 192.168.111.128
    netmask 255.255.255.0
    gateway 192.168.111.1
    ③修改主机名和 IP 的映射关系
    sudo gedit /etc/hosts
    打开后修改为:
    127.0.0.1 localhost
    127.0.0.1 master
    192.168.111.200 master
    ④关闭防火墙
    sudo ufw disable
    之后,系统提示“防火墙在系统启动时自动禁用”。
    ⑤重启虚拟机
    sudo reboot now

  7. 安装SSH并设置无密码登录
    ①安装OpenSSH
    sudo apt-get install ssh openssh-server
    中途按y继续
    ②确认sshserver是否启动
    sudo ps -e | grep sshd
    ③生成RSA密钥(包括私钥和公钥)
    ssh-keygen -t rsa
    回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的
    ④将新生成的公钥复制到已授权密钥列表
    进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的
    cd ~/.ssh
    cat id_rsa.pub >> authorized_keys
    ⑤将生成的authorized_keys文件拷贝到slave1主机相同的文件夹下
    scp authorized_keys master:~/.ssh/

  8. 安装Hadoop
    ①解压安装
    在hadoop的官网上下载:http://hadoop.apache.org/下载hadoop-2.7.2.tar.gz
    将压缩包放在物理机的共享文件夹中,打开虚拟机,进入共享文件夹/mnt/hgfs/
    输入命令解压安装包到/usr/local/下
    sudo tar -zxvf hadoop-2.7.2.tar.gz -C /usr/local/
    ②修改环境变量
    sudo gedit /usr/local/hadoop-2.7.2/etc/hadoop/hadoop-env.sh
    打开后
    替换exportJAVA_HOME=${JAVA_HOME}为如下:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    同样,配置yarn-env.sh(YARN资源管理器,管理的是HADOOP集群中的主从节点资源,YARN不需要安装,它是HADOOP自带的,通过配置起作用)
    在里面加入:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    ③为运行Hadoop创建目录
    Hadoop运行在Linux操作系统之上,它直接使用Linux的本地文件系统来存储HDFS的相关信息。因此,必须为Hadoop集群的每个节点创建相同目录结构,操作命令如下。
    mkdir ~/dfs #在Linux文件系统中构建HDFS的统一入口位置
    mkdir ~/dfs/tmp #创建tmp目录,用于保存HDFS工作时的临时信息
    mkdir ~/dfs/data #创建data目录,存储HDFS的用户文件的数据块
    mkdir ~/dfs/name #创建name目录,存储HDFS的元数据信息

  9. 配置伪分布式模式
    ①打开core-site.xml文件
    sudo gedit /usr/local/hadoop-2.7.2/etc/hadoop/core-site.xml
    然后在“<configuration>”和“</configuration>”标签之间输入以下内容并保存。

    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
    <description>HDFS的URI,master为主节点的主机名</description>
</property>
<property>
    <name>io.file.buffer.size </name>
    <value>130172</value>
    <description>文件缓存大小</description>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/dfs/tmp</value>
    <description>namenode工作时的临时文件夹</description>
</property>```
②打开hdfs-site.xml文件
sudo  gedit  /usr/local/hadoop-2.7.2/etc/hadoop/hdfs-site.xml
然后在“<configuration>”和“</configuration>”标签之间输入以下内容并保存。
```<property>
    <name>dfs.namenode.name.dir </name>
    <value>file:/home/hadoop/dfs/name</value>
    <description>NameNode上HDFS名字空间元数据的存储位置</description> 
</property>
<property>
    <name>dfs.datanode.data.dir </name>
    <value> file:/home/hadoop/dfs/data </value>
    <description>DataNode数据块的物理存储位置</description>
</property>
<property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>副本个数,默认是3,应小于DataNode节点数量</description>
</property>
<property>
    <name>dfs.http.address</name>
    <value>master:50070</value>
    <description>HDFS Web UI的入口URL</description>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>master:50090</value>
    <description>可查看SecondaryNameNode守护进程的状态信息</description>
</property>```
③打开yarn-site.xml文件
sudo  gedit  /usr/local/hadoop-2.7.2/etc/hadoop/yarn-site.xml
然后在“<configuration>”和“</configuration>”标签之间输入以下内容并保存。
```<property>
  <name>yarn.resourcemanager.address</name>
  <value>master:18040</value>
</property>
<property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>master:18041</value>
</property>
<property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>master:18042</value>
</property>
<property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>master:18043</value>
</property>
<property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>master:8088</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>```
④打开mapred -site.xml文件
sudo  cp  mapred-site.xml.template  mapred-site.xml
sudo  gedit  mapred-site.xml
然后在“<configuration>”和“</configuration>”标签之间输入以下内容并保存。
```<property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
</property>
<property>
   <name>mapreduce.jobhistory.address </name>
   <value> master:10020</value>
</property>
<property>
   <name>mapreduce.jobhistory.webapp.address </name>
   <value> master:19888</value>
</property>```

10. HDFS格式化
    初次运行的初始化
进入hadoop的根目录后输入以下命令
./bin/hdfs  namenode  -format

11. 启动hadoop
    cd  /usr/local/hadoop-2.7.2
sbin/start-dfs.sh
sbin/start-yarn.sh
    或
sbin/start-all.sh
在master机上输入jps

12. 测试
可以在web  UI中做测试:
在浏览其中输入:[http://master:8088](http://master:8088)可以看到hadoop的信息。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,905评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,140评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,791评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,483评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,476评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,516评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,905评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,560评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,778评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,557评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,635评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,338评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,925评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,898评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,142评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,818评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,347评论 2 342

推荐阅读更多精彩内容