您好,登录后才能下订单哦!
#关闭防火墙
service iptablesstop
1:安装JDK
1.1上传jdk-7u_65-i585.tar.gz
1.2解压jdk
#创建文件夹
mkdir /home/hadoop/app
#解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
1.3将java添加到环境变量中
sudo vim /etc/profile
#在文件最后添加
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile
2:安装hadoop2.4.1
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
伪分布式需要修改5个配置文件
2.1配置hadoop /home/hadoop/app/hadoop-2.4.1/etc/hadoop
第一个:hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65
第二个:core-site.xml
fs.defaultFS
hdfs://weekend-1206-01(主机名):9000
hadoop.tmp.dir
/home/hadoop/app/hadoop-2.4.1/data
第三个:hdfs-site.xml hdfs-default.xml (3)
dfs.replication
1
第四个:mapred-site.xml (mv mapred-site.xml.templatemapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
mapreduce.framework.name
yarn
第五个:yarn-site.xml
yarn.resourcemanager.hostname
weekend-1206-01(主机名)
yarn.nodemanager.aux-services
mapreduce_shuffle
3:启动hadoop
3.1:将hadoop添加到环境变量 vim /etc/proflie
export JAVA_HOME=/usr/java/jdk1.7.0_65
exportHADOOP_HOME=/home/hadoop/app/hadoop-2.4.1
exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#source /etc/profile
3.2: 格式化namenode(是对namenode进行初始化)
#hadoop namenode-format
3.3:启动 /home/hadoop/app/hadoop-2.4.1/sbin
先启动HDFS
#start-dfs.sh
再启动YARN
#start-yarn.sh
使用jps命令验证
#jps
【注:做集群时在vim/home/hadoop/app/hadoop-2.4.1/etc/hadoop/slaves添加相应的主机名】
4:浏览器访问:
http://ip:50070 (HDFS管理界面)
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。