拷贝grub文件到其他节点机,执行跟新grub
1.创建shell脚本bat.sh内容如下:
#!/bin/bash
for((i=1;i<3;i++))
{
scp /etc/default/grub root@c$i:/etc/default/
ssh -t c$i sudo update-grub
}
2.赋予执行的权限
chmod a+x bat.sh
3.执行
./bat.sh
4.修改副本数量(默认3个)和块大小(默认128m)
a.找出所有配置元素
hadoop-common-2.7.1.jar/core-default.xml
hadoop-hdfs-2.7.1.jar/hdfs-default.xml
hadoop-mapreduce-client-core-2.7.1.jar/mapred-default.xml
hadoop-yarn-common-2.7.1.jar/yarn-default.xml
b.core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
修改hdfs-site.xml
加入:<property>
<name>dfs.replication</name>
<value>2</value>
</property>
修改备份数据为2份
加入:<property>
<name>dfs.blocksize</name>
<value>20k</value>
</property>
修改块大小为20k
发送hdfs-site.xml到所有节点:
for((i = 1;i< 3;i++))
{
scp $HADOOP_INSTALL/etc/hadoop/hdfs-site.xml ubuntu@c$i:$HADOOP_INSTALL/etc/hadoop/
}
重启集群
删除所有节点的临时目录:
for((i = 1;i< 3;i++))
{
ssh c$i rm -fR /tmp/hadoop-ubuntu
}
格式化文件系统:
hadoop namenode -format
启动集群start-dfs.sh
start-yarn.sh