hadoop环境初始化搭建

发布时间:2020-07-26 13:37:45 作者:wsw26
来源:网络 阅读:1928

一、首先把hadoop二进制包和jdk的文件包download下来,并放置到合适目录的路径来解压(步骤省略)

二、在主机器上的hadoop解压出来的目录创建一个目录是专门放置hdfs的文件,把解压好的jdk包传去从的机器那

三、添加环境变量
设置JDK的环境变量 JAVA_HOME。需要修改配置文件/etc/profile最后来追加一下内容:
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
#export JRE_HOME=$JAVA_HOME/jre
export PATH=$JAVE_HOME/bin:$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib

修改完毕后,执行 source /etc/profile

执行 java –version,可以看见已经安装完成。
[root@spark ~]# java -version
java version "1.6.0_45"
Java(TM) SE Runtime Environment (build 1.6.0_45-b06)
Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)

四、修改好/etc/hosts和/etc/sysconfig/network(一主两从)
hadoop环境初始化搭建

五、部署好公钥,然后cat id_rsa.pub >> authorized_keys
六、把hosts、authorized_keys文件和/etc/profile传过去从的机器。
七、编辑hadoop的文件
hadoop环境初始化搭建
hadoop环境初始化搭建
hadoop环境初始化搭建

在hadoop/conf里的hadoop_env.sh最后那里添加java环境变量的位置
export JAVA_HOME=/usr/local/src/jdk1.6.0_45

八、把已经主机配置好的hadoop,整个目录scp到从的机器那里
九、在主机上hadoop的bin目录执行:
① ./hadoop namenode -format
② ./start-all.sh
十、检查一下hadoop环境有没问题
hadoop环境初始化搭建

推荐阅读:
  1. hadoop环境搭建
  2. 成功搭建好了hadoop环境

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

linux hadoop 大数据

上一篇:SQL去重复查询

下一篇:构建springmvc+mybatis+dubbo分布式平台-zookeeper注册中心安装

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》