在Ubuntu上高效部署HDFS涉及多个步骤,包括环境准备、配置Java环境、配置Hadoop环境、设置SSH无密码登录、配置HDFS以及启动和验证HDFS服务。以下是一个详细的步骤指南:
更新系统:
sudo apt update && sudo apt upgrade -y
安装基础工具:
sudo apt install -y build-essential openssh-server
安装Java环境:
下载JDK并解压:
wget https://download.java.net/java/GA/jdk8/9/GPL/openjdk-8u221-b11-linux-x64.tar.gz
tar -zxvf openjdk-8u221-b11-linux-x64.tar.gz -C /usr/lib/jvm
配置环境变量:
sudo nano /etc/profile
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_221
export PATH=$JAVA_HOME/bin:$PATH
source /etc/profile
下载Hadoop:
从Apache Hadoop官网下载所需版本的Hadoop安装包。
解压Hadoop:
tar -zxvf hadoop-X.Y.Z.tar.gz -C /usr/local/hadoop
配置Hadoop环境变量:
/usr/local/hadoop/etc/hadoop/hadoop-env.sh
文件,设置JAVA_HOME
。/usr/local/hadoop/etc/profile
文件,添加Hadoop的bin
目录到PATH
环境变量。生成SSH密钥:
ssh-keygen -t rsa
复制公钥到其他节点:
ssh-copy-id user@slave_node_ip
修改配置文件:
/usr/local/hadoop/etc/hadoop/core-site.xml
,配置HDFS的URI。/usr/local/hadoop/etc/hadoop/hdfs-site.xml
,配置数据块大小、副本数等。格式化NameNode:
hdfs namenode -format
启动HDFS服务:
start-dfs.sh
检查HDFS状态:
hdfs dfsadmin -report
上传文件测试:
hdfs dfs -put local_file_path hdfs://namenode_ip:port/hdfs_directory