前言
最近发现,公司的的大数据环境,空间有不足的情况,集群的计算能力也下降, 此时需要对将大数据的集群环境进行扩容 增加计算节点。
操作步骤
集群示意图:
准备好linux环境
配置hadoop账号,ssh免密,关掉防火墙,磁盘挂载
1:创建hadoop账号
useradd hadoop
2:ssh无密码登陆
su hadoop
ssh-keygen -t rsa
#复制到所有datanode,并测试ssh登陆
cp id_rsa.pub authorized_key
3:配置hadoop
把原先的/usr/local/hadoop复制到/home/hadoop下,并修改配置文件中hadoop_home相关的地址。
4:修改文件权限
修改dfs.n