Ubuntu与HDFS集成主要通过安装Hadoop并配置相关参数实现,核心步骤如下:
安装Java环境
sudo apt update
sudo apt install openjdk-8-jdk # 安装JDK 8+
echo 'export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64' >> ~/.bashrc
source ~/.bashrc # 配置环境变量
下载并配置Hadoop
/usr/local/hadoop
):wget https://downloads.apache.org/hadoop/common/hadoop-x.x.x/hadoop-x.x.x.tar.gz
tar -xzvf hadoop-x.x.x.tar.gz -C /usr/local/hadoop
~/.bashrc
):export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
source ~/.bashrc
配置HDFS核心参数
hadoop-env.sh
:设置JAVA_HOME
路径。core-site.xml
:配置HDFS默认路径(如fs.defaultFS=hdfs://localhost:9000
)。hdfs-site.xml
:设置副本数(dfs.replication
)、NameNode/DataNode存储目录等。启动HDFS服务
hdfs namenode -format # 首次启动需格式化NameNode
start-dfs.sh # 启动HDFS服务
jps # 检查NameNode和DataNode是否运行
验证集成
hdfs dfs -put localfile.txt /hdfs/path/
hdfs dfs -ls /hdfs/path/
说明:以上步骤为单机模式配置,若需分布式集群,需额外配置SSH免密登录、多节点/etc/hosts
映射及slaves
文件等。