您好,登录后才能下订单哦!
这篇文章主要讲解了“RedHat hadoop集群的安装步骤”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“RedHat hadoop集群的安装步骤”吧!
#查看selinux状态
[root@master1 ~]# sestatus -v
#关闭selinux
vi /etc/selinux/config
SELINUX=disabled
/usr/sbin/ntpdate cn.pool.ntp.org
0 1 * * * /usr/sbin/ntpdate cn.pool.ntp.org |
crontab –e
#查看系统自动安装的jdk
[root@master1 opt]# rpm -qa | grep jdk
#删除系统自动安装的jdk
[root@master1 opt]# rpm -qa | grep jdk
java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
[root@master1 opt]# rpm -e -nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
-nodeps: 未知的选项
[root@master1 opt]# rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
[root@node1 soft-src]# pwd
/tmp/soft-src
[root@node1 soft-src]# ll -a
总用量 139052
drwxr-xr-x. 3 root root 4096 9月 22 10:30 .
drwxrwxrwt. 25 root root 4096 9月 22 10:30 ..
-rwxrw-rw-. 1 root root 142376665 9月 20 11:16 jdk-7u67-linux-x64.tar.gz
[root@node1 soft-src]# tar xvf jdk-7u67-linux-x64.tar.gz
[root@node1 soft-src]# ll -a
总用量 139052
drwxr-xr-x. 3 root root 4096 9月 22 10:30 .
drwxrwxrwt. 25 root root 4096 9月 22 10:30 ..
drwxr-xr-x. 8 uucp 143 4096 7月 26 00:51 jdk1.7.0_67
-rwxrw-rw-. 1 root root 142376665 9月 20 11:16 jdk-7u67-linux-x64.tar.gz
[root@secondarynamenode 桌面]# vi /etc/profile.d/java.sh
export JAVA_HOME=/tmp/soft-src/jdk1.7.0_67
export CLASSPATH=/tmp/soft-src/jdk1.7.0_67/lib
export PATH=$JAVA_HOME/bin:$PATH
[root@secondarynamenode 桌面]# which java
/tmp/soft-src/jdk1.7.0_67/bin/java
groupadd hadoop
useradd hadoop -g hadoop
#通过管理员登陆后修改wqj用户密码
passwd wqj
配置详情参看《RedHat hadoop ssh配置安装》
例chmod -R 700 路径
mkdir -p 路径
[root@node1 modules]# tar xvf hadoop-1.0.3.tar
#修改hadooop-1.0.3.tar的权限
chown hadoop:hadoop /opt/module/hadoop-1.0.3.tar
export JAVA_HOME=/tmp/soft-src/jdk1.7.0_67
export HADOOP_HEAPSIZE=512
export HADOOP_HOME=/opt/modules/hadoop-1.0.3
export CLASSPATH=.:$HADOOP_HOME/lib:$CLASSPATH
export PATH=.:$HADOOP_HOME/bin:$PATH
12、配置集群
1)、配置core-site.xml
此配置文件,定义Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> <final>true</final> </configuration>
2)、配置hdfs-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.name.dir</name> <value>/opt/data/hadoop/hdfs/name,/data1/hadoop/hdfs/name</value> <final>true</final> </property> <property> <name>dfs.data.dir</name> <value>/opt/data/hadoop/hdfs/data,/data1/hadoop/hdfs/data</value> <final>true</final> </property> <property> <name>fs.checkpoint.dir</name> <value>/opt/data/hadoop/hdfs/secondarynamenode,/data1/hadoop/hdfs/secondarynamenode</value> <final>true</final> </property> <property> <name>dfs.http.address</name> <value>master:50070</value> <final>true</final> </property> <property> <name>dfs.secondary.http.address</name> <value>192.168.232.146:50090</value> <final>true</final> </property> <property> <name>dfs.permissions</name> <value>false</value> <final>true</final> </property> <property> <name>dfs.hosts</name> <value>/etc/hadoop/conf/include</value> <final>true</final> </property> </configuration>
3)、配置mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>master:9001</value> <final>true</final> </property> <property> <name>mapred.local.dir</name> <value>/opt/data/hadoop/mapred/local,/data1/hadoop/mapred/local</value> <final>true</final> </property> <property> <name>mapred.system.dir</name> <value>/tmp/hadoop/mapred/system</value> <final>true</final> </property> <property> <name>mapred.tasktracker.map.tasks.maximum</name> <value> 7 </value> <final>true</final> </property> <property> <name>mapred.tasktracker.reduce.tasks.maximum</name> <value> 7 </value> <final>true</final> </property> <property> <name>mapred.child.java.opt</name> <value>-Xmx400m</value> <final>true</final> </property> <property> <name>mapred.hosts</name> <value>/etc/hadoop/conf/include</value> <final>true</final> </property> <property> <name>mapred.jobtracker.restart.recover</name> <value>true</value> </property> </configuration>
4)、格式化hdfs
hadoop namenode -format
5)、修改/opt/modules/hadoop目录权限为hadoop
6)、修改/opt/data/hadoop/hdfs/name等文件权限为hadoop
7)、
#启动 master node :
hadoop-daemon.sh start namenode
#启动 data node :
hadoop-daemon.sh start datanode
#启动 jobtracker
hadoop-daemon.sh start jobtracker
#启动 tasktracker
hadoop-daemon.sh start tasktracker
8)、
查看日志信息
[root@master 桌面]# tail -100f /opt/modules/hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-master.log
感谢各位的阅读,以上就是“RedHat hadoop集群的安装步骤”的内容了,经过本文的学习后,相信大家对RedHat hadoop集群的安装步骤这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。