Linux单机伪分布式安装的示例分析

发布时间:2021-11-12 13:56:36 作者:小新
来源:亿速云 阅读:144

这篇文章将为大家详细讲解有关Linux单机伪分布式安装的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

1、服务器信息

一台linux服务器【Linux 5.5,x86_64,用于安装hadoop】

2、需要软件

jdk1.6.0_31

hadoop-2.2.0.tar.gz

3、建立ssh无密码登录

主要是每次启动hadoop时不用多次输入登录Linux操作系统密码。

(1)实现无密码登录本机

$ ssh-keygen -t rsa

直接回车,会提示输入存储密码的文件名,输入id_rsa,完成后会在~/.ssh/生成两个文件:id_rsa和id_rsa.pub。

$ ssh-keygen -t dsa

直接回车,会提示输入存储密码的文件名,输入id_dsa,完成后会在~/.ssh/生成两个文件:id_dsa和id_dsa.pub。

$cat~/.ssh/id_rsa.pub  >>~/.ssh/authorized_keys  将生成的密钥串在钥匙链上

$cat~/.ssh/id_dsa.pub  >>~/.ssh/authorized_keys  将生成的密钥串在钥匙链上

$chmod 600  ~/.ssh/authorized_keys。

然后 ssh localhost 验证是否成功,第一次要你输入yes,以后就不需要了。

4、安装hadoop

保证待安装hadoop的服务器上安装jdk;

假设hadoop安装在/home/username/hadoop目录下(username为操作系统登录用户),以下统称hadoop安装目录。

(1)解压hadoop-2.2.0.tar.gz到hadoop安装目录下。

(2)配置系统环境变量

可修改/etc/profile文件,在文件末尾添加如下内容。本文是修改/home/username/.bash_profile,修改完后请重新登录ssh。

exportHADOOP_PREFIX="/home/username/hadoop/hadoop-2.2.0"  

PATH="$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin"  

export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}  

export HADOOP_COMMON_HOME=${HADOOP_PREFIX}  

export HADOOP_HDFS_HOME=${HADOOP_PREFIX}  

export HADOOP_YARN_HOME=${HADOOP_PREFIX}

export HADOOP_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"

export YARN_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native

exportHADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"

(3)配置hadoop

需要修改以下配置文件:

hadoop-env.sh

修改JAVA_HOME,这里JAVA_HOME的路径必须指定为真实的路径,不能引用${JAVA_HOME},否则运行的时候会有错误JAVA_HOME is not set。配置如下:

export JAVA_HOME=/usr/java/jdk1.6.0_26

core-site.xml

hdfs-site.xml

其中,/home/username/hadoop/dfs/name,/home/username/hadoop/dfs/data都是文件系统中的目录,需要先新建。

mapred-site.xml

yarn-site.xml

注意yarn.nodemanager.aux-services属性的值应为mapreduce_shuffle,而不是mapreduce.shuffle(差别为“_”与“.”),否则会出现错误。

5、启动hadoop

完成以上配置后可以检测是否配置成功。

(1)格式化hadoop的文件系统HDFS

在启动hadoop之前,需要格式化hadoop的文件系统HDFS。进入/home/username/hadoop/hadoop-2.2.0/bin文件夹,执行以下命令进行格式化:

$ hdfs namenode -format

(2)启动hadoop

格式化文件系统成功后,进入/home/username/hadoop/hadoop-2.2.0/sbin目录,启动hadoop。执行以下命令:

$ start-all.sh   --此命令在hadoop2.2.0版本已被遗弃。

hadoop2.2.0推荐使用以下命令启动:

首先启动hdfs:

  $ start-dfs.sh

  或者

 $ hadoop-daemon.sh startnamenode

 $ hadoop-daemon.sh startdatanode

然后启动yarn daemons:

  $ start-yarn.sh

  或者

  $ yarn-daemon.sh startresourcemanager

  $ yarn-daemon.sh startnodemanager

启动完成后访问以下地址查看dfs状态,如果成功会显示对应界面:

http://x.x.x.x:50070/dfshealth.jsp    HDFS的web界面

datanode:

http://x.x.x.x:50075/

resourcemanager(JobTracker replacement):

http://x.x.x.x:8088/cluster     Web app /cluster

nodemanager(TaskTrackerreplacement):

http://x.x.x.x:8042/node    Web app /node

关于“Linux单机伪分布式安装的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

推荐阅读:
  1. 怎么部署Hbase单机与伪分布式
  2. Hbase安装-单机安装

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

linux

上一篇:启动和关闭Hadoop出现的警告怎么办

下一篇:Django中的unittest应用是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》