Hadoop安装 1.0(简版)

发布时间:2020-06-28 22:13:09 作者:刀刀_高扬
来源:网络 阅读:316

前提:

一定要保证iptables是关闭的并且selinux是disabled


1、准备硬件


1台namenode和3台datanode

namenode 192.168.137.100

datanode1 192.168.137.101

datanode2 192.168.137.102

datanode3 192.168.137.103


2、在4台机器上建立hadoop用户(也可以是别的用户名)


useradd hadoop


3、在4台机器上安装JDK 1.6


安装后的JAVA_HOME放在/jdk

配置环境变量

vim /etc/bashrc

export JAVA_HOME=/jdk

scp -r /jdk* datanode1:/

scp -r /jdk* datanode2:/

scp -r /jdk* datanode3:/


4、配置4台机器的多机互信


一定记得将各个节点的

/home/hadoop/.ssh

和其以下的所有文件都设成700权限位


5、安装hadoop


tar zxvf hadoop-1.0.4.tar


安装在/hadoop

将/hadoop权限位置为755


vim /hadoop/conf/hadoop-env.sh


export JAVA_HOME=/jdk


vim /hadoop/conf/core-site.xml

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/tmp</value>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://namenode:9000</value>

</property>

vim /hadoop/conf/mapred-site.xml

<property>

<name>mapred.job.tracker</name>

<value>namenode:9001</value>

</property>


vim /hadoop/conf/hdfs-site.xml

<property>

<name>dfs.name.dir</name>

<value>/home/hadoop/name</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/hadoop/name</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>


vim /hadoop/conf/masters


192.168.137.100


vim /hadoop/conf/slaves

192.168.137.101

192.168.137.102

192.168.137.103


把配置好的HADOOP拷贝到datanode上去

cd /

scp -r hadoop datanode1:/hadoop

scp -r hadoop datanode2:/hadoop

scp -r hadoop datanode3:/hadoop


6、安装zookeeper

tar zxvf zookeeper-3.3.4.tar

安装在/zookeeper

cd /zookeeper/conf

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

加入

dataDir=/zookeeper-data

dataLogDir=/zookeeper-log

server.1=namenode:2888:3888

server.2=datanode1:2888:3888

server.3=datanode2:2888:3888

server.4=datanode3:2888:3888

建立/zookeeper-data

mkdir /zookeeper-data

建立/zookeeper-log

建立文件/zookeeper-data/myid

vim /zookeeper-data/myid

1

(datanode1里对应写入2)

(datanode2里对应写入3)

(datanode3里对应写入4)

10、安装hive

tarzxvf hive-0.8.0.tar

到/hive

vim /hive/bin/hive-config.sh

export HADOOP_HOME=/hadoop

export PATH=.$HADOOP_HOME/bin:$PATH

export HIVE_HOME=/hive

export PATH=$HIVE_HOME/bin:$PATH

export JAVA_HOME=/jdk

export JRE_HOME=/jdk/jre

export CLASSPATH=.$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

export PATH=.$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

vim /etc/bashrc

export HIVE_HOME=/hive

11、启动hadoop

格式化并启动系统

su hadoop

cd /usr/local/hadoop/bin

./hadoop namenode -format

./start-dfs.sh

./start-mapred.sh

http://192.168.137.100:50070查看HDFS namenode

http://192.168.137.100:50030 查看MAPREDUCE JOB TRACKERS

http://192.168.137.101:5006查看datanode1上的TASK TRACKER

12、相关命令

hadoop fs -mkdir direc

hadoop fs -ls

hadoop fs -cp file:///tmp/test.file /user/hadoop/direc


推荐阅读:
  1. mysql 5.7.22 企业版安装简析
  2. CentOS 6.5 php源码安装1.0版

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

安装 hadoop 1.0

上一篇:Web前端面试指导(十三):css样式的优先级是怎么样的?

下一篇:FastDFS分布式文件系统搭建

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》