Hadoop部署准备 本地vmware安装 Linux系统家族中 centos7
Java对应版本1.8.0_121
Hadoop版本2.8.0
首先安装一个centos7并配置好javaJava环境配置我的java安装地址 /usr/java/ jdk1.8.0_121 编辑java环境 vi ~/.bash_profile添加或修改export JAVA_HOME=/usr/java/jdk1.8.0_121export PATH=$JAVA_HOME/bin:$PATH执行 . ~/.bash_profile 使变量生效
先 yum install ssh 安装 然后执行ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa生成密匙END
把下载好的hadoop解压出来。(我的地址在/roo目录,即完整地址/root/hadoop) 配置环境变量vi ~/.bash_profileexport HADOOP_HOME=/root/hadoopexport PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin执行 . ~/.bash_profile 使变量生效
vim etc/hadoop/core-site.xml 在
vim etc/hadoop/hdfs-site.xml在
vim etc/hadoop/mapred-site.xml在
vim etc/hadoop/yarn-site.xml在
vim etc/hadoop/yarn-env.sh 中找到 export JAVA_HOME 去掉注释编辑java地址 export JAVA_HOME=/usr/java/jdk1.8.0_121 找到JAVA_HEAP_MAX=-Xmx1000m改为 JAVA_HEAP_MAX=-Xmx1024m
vim etc/hadoop/slaves 清空添加 s204
我这ip是 192.168.5.9 编辑网络固定ipvim /etc/sysconfig/network-scripts/ifcfg-ens33 指定固定ip TYPE='Ethernet'#BOOTPROTO='dhcp'DEFROUTE='yes'PEERDNS='yes'PEERROUTES='yes'IPV4_FAILURE_FATAL='no'IPV6INIT='yes'IPV6_AUTOCONF='yes'IPV6_DEFROUTE='yes'IPV6_PEERDNS='yes'IPV6_PEERROUTES='yes'IPV6_FAILURE_FATAL='no'IPV6_ADDR_GEN_MODE='stable-privacy'NAME='ens33'UUID='b9fe1e5c-be20-47f1-a2d3-e12f5ddb6aa1'DEVICE='ens33'ONBOOT='yes'IPADDR0=192.168.5.9PREFIX0=24GATEWAY0=192.168.5.2DNS1=114.114.114.114 然后重启网络 systemctl restart network 执行 ip add 查看网络ip是否和设定的一致
进入/root/hadoop目录 执行编译./bin/hdfs namenode –format 结果倒数第五行出现Exiting with status 0 则为成功 然后启动./sbin/start-all.sh 启动完毕执行./bin/hdfs dfsadmin –report 查看是否有节点如果返回 无法连接则为启动失败 执行systemctl stop firewalld.service关闭防火墙 在浏览器输入s204:8088则可以看到hadoop界面
以上配置完毕后,关闭centos7然后完全克隆,在新克隆的系统中,更改ip地址和主机名其中hadoop配置文件etc/hadoop/hdfs-site.xml 中