在Debian系统上提交Hadoop作业通常涉及以下步骤:
环境准备:
HADOOP_HOME和PATH。编写MapReduce程序:
上传JAR文件到HDFS:
hadoop fs -put命令将JAR文件上传到HDFS的某个目录中。hadoop fs -put /path/to/your-job.jar /user/hadoop/job.jar
准备输入数据:
hadoop fs -put /path/to/input /user/hadoop/input
提交作业:
hadoop jar命令提交作业。hadoop jar /user/hadoop/job.jar com.yourcompany.YourJobClass /user/hadoop/input /user/hadoop/output
其中:
/user/hadoop/job.jar 是你的JAR文件在HDFS上的路径。com.yourcompany.YourJobClass 是你的主类(包含main方法的类)。/user/hadoop/input 是输入数据在HDFS上的路径。/user/hadoop/output 是输出数据在HDFS上的路径。监控作业:
yarn application -list命令查看作业的运行状态。yarn application -list
yarn application -status <application_id>查看特定作业的详细状态。获取作业输出:
hadoop fs -get命令将输出数据从HDFS下载到本地文件系统。hadoop fs -get /user/hadoop/output /path/to/local/output
清理:
hadoop fs -rm -r /user/hadoop/input
hadoop fs -rm -r /user/hadoop/output
以上步骤是在Debian系统上提交Hadoop作业的基本流程。根据具体需求和环境配置,可能需要进行一些调整。