Linux下Hadoop 2.7.3如何安装搭建

发布时间:2021-11-30 12:54:19 作者:小新
来源:亿速云 阅读:191
# Linux下Hadoop 2.7.3安装搭建指南

## 一、环境准备

### 1.1 硬件要求
- 至少4GB内存(建议8GB以上)
- 50GB可用磁盘空间
- 64位处理器

### 1.2 软件要求
- Linux系统(本文以Ubuntu 20.04为例)
- Java JDK 1.8(必须)
- SSH服务(必须)
- Hadoop 2.7.3安装包

### 1.3 网络配置
- 确保所有节点在同一局域网
- 配置静态IP(推荐)
- 设置主机名解析(/etc/hosts)

## 二、基础环境配置

### 2.1 安装Java环境
```bash
sudo apt update
sudo apt install openjdk-8-jdk
java -version  # 验证安装

2.2 配置SSH免密登录

sudo apt install openssh-server
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
ssh localhost  # 测试连接

2.3 创建Hadoop专用用户(可选但推荐)

sudo adduser hadoop
sudo usermod -aG sudo hadoop
su - hadoop

三、Hadoop安装与配置

3.1 下载并解压Hadoop

wget https://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
tar -xzvf hadoop-2.7.3.tar.gz
sudo mv hadoop-2.7.3 /usr/local/hadoop
sudo chown -R hadoop:hadoop /usr/local/hadoop

3.2 配置环境变量

编辑~/.bashrc文件:

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

使配置生效:

source ~/.bashrc

3.3 核心配置文件修改

1. hadoop-env.sh

cd $HADOOP_HOME/etc/hadoop
echo "export JAVA_HOME=$JAVA_HOME" >> hadoop-env.sh

2. core-site.xml

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop/tmp</value>
  </property>
</configuration>

3. hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop/hdfs/namenode</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop/hdfs/datanode</value>
  </property>
</configuration>

4. mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

编辑内容:

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

5. yarn-site.xml

<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
</configuration>

四、HDFS初始化与启动

4.1 格式化NameNode

hdfs namenode -format

4.2 启动HDFS服务

start-dfs.sh

4.3 启动YARN服务

start-yarn.sh

4.4 验证服务状态

jps  # 应显示以下进程:
# NameNode
# DataNode
# ResourceManager
# NodeManager
# SecondaryNameNode

五、集群测试

5.1 HDFS基础操作

hdfs dfs -mkdir /input
hdfs dfs -put $HADOOP_HOME/etc/hadoop/*.xml /input
hdfs dfs -ls /input

5.2 运行MapReduce示例

hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep /input /output 'dfs[a-z.]+'
hdfs dfs -cat /output/*

六、常见问题解决

6.1 端口冲突问题

检查端口占用情况:

netstat -tulnp | grep java

6.2 权限问题

确保所有目录权限正确:

sudo chown -R hadoop:hadoop /usr/local/hadoop

6.3 日志查看

关键日志位置: - NameNode日志:$HADOOP_HOME/logs/hadoop-hadoop-namenode-*.log - DataNode日志:$HADOOP_HOME/logs/hadoop-hadoop-datanode-*.log

七、安全关闭集群

stop-yarn.sh
stop-dfs.sh

八、扩展配置(可选)

8.1 多节点集群配置

  1. 在所有节点重复上述步骤
  2. 修改core-site.xml中的fs.defaultFS为Master节点IP
  3. 配置slaves文件添加所有DataNode主机名

8.2 高可用配置

需要配置: - ZooKeeper集群 - JournalNode服务 - HDFS HA相关参数


注意事项: 1. 生产环境建议使用最新稳定版Hadoop 2. 多节点集群需要同步所有配置文件 3. 建议配置防火墙规则开放必要端口 4. 定期备份NameNode元数据

通过以上步骤,您已成功搭建Hadoop 2.7.3伪分布式环境。如需完全分布式环境,请参考官方文档进行扩展配置。 “`

推荐阅读:
  1. Idea+Centos+hadoop-2.7.3源码环境搭建
  2. How to install Hadoop 2.7.3 cluster on CentOS 7.3

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

linux hadoop

上一篇:Vmware虚拟机如何设置固定IP地址

下一篇:C/C++ Qt TreeWidget单层树形组件怎么应用

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》