在CentOS上使用HDFS命令行工具,您需要首先安装Hadoop,并配置好Hadoop环境变量。以下是详细步骤:
CentOS官方仓库提供了Hadoop的安装包,可以通过yum进行安装。
sudo yum install hadoop
/usr/local/hadoop
。sudo tar -xzvf hadoop-3.x.x.tar.gz -C /usr/local/
编辑/etc/profile.d/hadoop.sh
文件:
sudo vi /etc/profile.d/hadoop.sh
添加以下内容:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使配置生效:
source /etc/profile.d/hadoop.sh
编辑$HADOOP_HOME/etc/hadoop/core-site.xml
文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
编辑$HADOOP_HOME/etc/hadoop/hdfs-site.xml
文件:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
</configuration>
在首次启动HDFS之前,需要对其进行格式化:
hdfs namenode -format
start-dfs.sh
start-yarn.sh
hdfs dfs -ls /
hdfs dfs -mkdir /user/hadoop/testdir
hdfs dfs -put /local/path/to/file.txt /user/hadoop/testdir/
hdfs dfs -get /user/hadoop/testdir/file.txt /local/path/to/
hdfs dfs -cat /user/hadoop/testdir/file.txt
hdfs dfs -rm /user/hadoop/testdir/file.txt
hdfs dfs -rm -r /user/hadoop/testdir
stop-dfs.sh
stop-yarn.sh
通过以上步骤,您可以在CentOS上成功安装并配置Hadoop,并使用HDFS命令行工具进行文件操作。