详细点击这里,了解更多
思路:让主节点连接外网的时间,从节点仅仅连接主节点的时间,达到3台机时间一样的目的
apt-get install chrony -y
vi /etc/chrony/chrony.conf 添加 local stratum 10 allow 172.25.0.0/24
systemctl enable chrony systemctl restart chrony
apt-get install chrony -y
vi /etc/chrony/chrony.conf 注释这4行,添加server master iburst
chronyc sources
到此NTP完成。
目的是为了将编辑好的文档下发到从节点
sudo groupadd -g 285 angel (可以在bass普通用户下操作,可以在root用户下操作。若在bass需要提高权限sudo,root用户则不用。) 285 是组号,angel是组名。
$ sudo useradd -u 285 -g 285 -m -s /bin/bash angel
用户号为285,用户组号为285,用户名为angel。
sudo gpasswd -a angel sudo 将angel用户添加到sudo组。 sudo passwd angel 密码为123
su - angel 密码:123
ssh-keygen -t rsa 加密算法选择rsa,
ssh-copy-id -i .ssh/id_rsa.pub master
yes 密码:123
ssh master ctrl+D 退出 logout
ssh slave1 ssh slave2
在angel用户下建立 sudo mkdir /app sudo chown -R angel:angel /app
vi /home/angel/.profile 在最后添加2行
source /home/angel/.profile
cd /app tar xzvf /home/angel/jdk-8u261-linux-x64.tar.gz -C /app
scp -r /app/* angel@slave1:/app scp -r /app/* angel@slave2:/app
java -version javac -version
tar xzvf /home/angel/hadoop-2.8.5.tar.gz -C /app
vi /home/angel/.profile 添加:
export HADOOP_HOME=/app/hadoop-2.8.5 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopsource /home/angel/.porfile
vi /app/hadoop-2.8.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/app/jdk1.8.0_261vi /app/hadoop-2.8.5/etc/hadoop/core-site.xml
<property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/tmp/hadoop-2.8.5</value> </property> <property> <name>hadoop.proxyuser.angel.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.angel.groups</name> <value>*</value> </property>vi /app/hadoop-2.8.5/etc/hadoop/hdfs-site.xml
<property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/app/hadoop-2.8.5/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/app/hadoop-2.8.5/dfs/data</value> </property>先将 mapred-site.xml.template复制命名为mapred-site.xml cp /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml.template /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property>vi /app/hadoop-2.8.5/etc/hadoop/yarn-site.xml
<property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>vi /app/hadoop-2.8.5/etc/hadoop/slaves
scp -r /app/hadoop-2.8.5/ angel@slave1:/app scp -r /app/hadoop-2.8.5/ angel@slave2:/app
耐心等待下发完成
hdfs namenode -format
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
jps
jps
节点机有2个活的,端口号50070,8088 到此hadoop环境配置成功!