1)需要修改配置文件
etc/hadoop/core-site.xml:
<configuration>
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
</configuration>
etc/hadoop/hdfs-site.xml:
<configuration>
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
2)启动集群
(a)格式化NameNode(第一次启动时格式化)
bin/hdfs namenode -format
(b)启动NameNode
sbin/hadoop-daemon.sh start namenode
(c)启动DataNode
sbin/hadoop-daemon.sh start datanode
ps:如果启动报JAVA_HOME找不到,需要修改hadoop-env.sh配置文件,手动指定JAVA_HOME环境变量
[${hadoop_home}/etc/hadoop/hadoop-env.sh]
...
export JAVA_HOME=/soft/jdk
...
3)查看是否启动成功
(a) jps 查看进程
...
NameNode
DataNode
SceondaryNameNode
...
(b) 浏览器查看:http://localhost:50070 (查看HDFS)