RedHat hadoop集群的安装步骤

发布时间:2021-07-29 19:23:43 作者:chen
来源:亿速云 阅读:155

这篇文章主要讲解了“RedHat hadoop集群的安装步骤”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“RedHat hadoop集群的安装步骤”吧!

1、网络配置

2、机器名修改

3、集群hosts列表

4、关闭防火墙、SELinux

#查看selinux状态

[root@master1 ~]# sestatus -v
#关闭selinux

vi /etc/selinux/config  

SELINUX=disabled 

5、时间同步

#手动同步时间

/usr/sbin/ntpdate cn.pool.ntp.org

#配置时间同步(实现自动同步时间)

0 1 * * * /usr/sbin/ntpdate cn.pool.ntp.org

crontab –e

6、jdk环境安装

#查看系统自动安装的jdk

[root@master1 opt]# rpm -qa | grep jdk

#删除系统自动安装的jdk

[root@master1 opt]# rpm -qa | grep jdk
java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
[root@master1 opt]# rpm -e -nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
-nodeps: 未知的选项
[root@master1 opt]# rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64


[root@node1 soft-src]# pwd
/tmp/soft-src

#查看目录内容

[root@node1 soft-src]# ll -a
总用量 139052
drwxr-xr-x.  3 root root      4096 9月  22 10:30 .
drwxrwxrwt. 25 root root      4096 9月  22 10:30 ..
-rwxrw-rw-.  1 root root 142376665 9月  20 11:16 jdk-7u67-linux-x64.tar.gz

#解压

[root@node1 soft-src]# tar xvf jdk-7u67-linux-x64.tar.gz

#查看目录

[root@node1 soft-src]# ll -a
总用量 139052
drwxr-xr-x.  3 root root      4096 9月  22 10:30 .
drwxrwxrwt. 25 root root      4096 9月  22 10:30 ..
drwxr-xr-x.  8 uucp  143      4096 7月  26 00:51 jdk1.7.0_67
-rwxrw-rw-.  1 root root 142376665 9月  20 11:16 jdk-7u67-linux-x64.tar.gz

#设置JAVA_HOME

[root@secondarynamenode 桌面]# vi /etc/profile.d/java.sh 

export JAVA_HOME=/tmp/soft-src/jdk1.7.0_67
export CLASSPATH=/tmp/soft-src/jdk1.7.0_67/lib
export PATH=$JAVA_HOME/bin:$PATH

#查看jdk安装位置

[root@secondarynamenode 桌面]# which java
/tmp/soft-src/jdk1.7.0_67/bin/java

7、创建hadoop用户和hadoop组

groupadd hadoop
useradd hadoop -g hadoop

#通过管理员登陆后修改wqj用户密码

passwd wqj

8、生成ssh密钥

配置详情参看《RedHat hadoop ssh配置安装》

9、创建/opt/module/hadoop和/opt/data/hadoop目录

10、修改/opt/module/hadoop和/opt/data/hadoop目录权限

例chmod -R 700 路径

mkdir -p 路径

11、配置hadoop环境

解压

[root@node1 modules]# tar xvf hadoop-1.0.3.tar 

#修改hadooop-1.0.3.tar的权限

chown hadoop:hadoop /opt/module/hadoop-1.0.3.tar

#配置HADOOP_HOME

1)、$HADOOP_HOME/conf/hadoop-env.sh 

export JAVA_HOME=/tmp/soft-src/jdk1.7.0_67
export HADOOP_HEAPSIZE=512

2)、/etc/profile.d/hadoop.sh

export HADOOP_HOME=/opt/modules/hadoop-1.0.3
export CLASSPATH=.:$HADOOP_HOME/lib:$CLASSPATH
export PATH=.:$HADOOP_HOME/bin:$PATH

12、配置集群

1)、配置core-site.xml

此配置文件,定义Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://master:9000</value>
        </property>
        <final>true</final>

</configuration>

2)、配置hdfs-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>dfs.name.dir</name>
    <value>/opt/data/hadoop/hdfs/name,/data1/hadoop/hdfs/name</value>
        <final>true</final>
    </property>
    <property>
        <name>dfs.data.dir</name>
    <value>/opt/data/hadoop/hdfs/data,/data1/hadoop/hdfs/data</value>
        <final>true</final>
    </property>
    <property>
        <name>fs.checkpoint.dir</name>
<value>/opt/data/hadoop/hdfs/secondarynamenode,/data1/hadoop/hdfs/secondarynamenode</value>
        <final>true</final>
    </property>
    <property>
        <name>dfs.http.address</name>
        <value>master:50070</value>
        <final>true</final>
    </property>
    <property>
        <name>dfs.secondary.http.address</name>
        <value>192.168.232.146:50090</value>
        <final>true</final>
    </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
                <final>true</final>
        </property>
        <property>
        <name>dfs.hosts</name>
        <value>/etc/hadoop/conf/include</value>
        <final>true</final>
    </property>
</configuration>

3)、配置mapred-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>master:9001</value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.local.dir</name>
<value>/opt/data/hadoop/mapred/local,/data1/hadoop/mapred/local</value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.system.dir</name>
        <value>/tmp/hadoop/mapred/system</value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.tasktracker.map.tasks.maximum</name>
        <value>
            7
        </value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.tasktracker.reduce.tasks.maximum</name>
        <value>
            7
        </value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.child.java.opt</name>
        <value>-Xmx400m</value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.hosts</name>
        <value>/etc/hadoop/conf/include</value>
        <final>true</final>
    </property>
    <property>
        <name>mapred.jobtracker.restart.recover</name>
        <value>true</value>
    </property>
</configuration>

4)、格式化hdfs

hadoop namenode -format

5)、修改/opt/modules/hadoop目录权限为hadoop

6)、修改/opt/data/hadoop/hdfs/name等文件权限为hadoop

7)、

#启动 master node :

hadoop-daemon.sh start namenode

#启动 data node :

hadoop-daemon.sh start datanode

#启动 jobtracker

hadoop-daemon.sh start jobtracker

#启动 tasktracker

hadoop-daemon.sh start tasktracker

8)、

查看日志信息

[root@master 桌面]# tail -100f /opt/modules/hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-master.log

感谢各位的阅读,以上就是“RedHat hadoop集群的安装步骤”的内容了,经过本文的学习后,相信大家对RedHat hadoop集群的安装步骤这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

推荐阅读:
  1. linux redhat7.0 zabbix4.0的安装和部署
  2. RedHat6.5安装MySQL的方法

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

redhat hadoop

上一篇:怎么为Hive CLI运行时指定日志目录

下一篇:linux系统配置DataGuard时报ORA-12528错误如何解决

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》