在Ubuntu上提交Hadoop作业的流程如下:
环境准备
JAVA_HOME环境变量。HADOOP_HOME、PATH等环境变量,确保集群节点可访问。start-dfs.sh、start-yarn.sh。准备作业文件
hadoop fs -put /path/to/your-job.jar /user/hadoop/。hadoop fs -put /path/to/input /user/hadoop/input。提交作业
hadoop jar /user/hadoop/your-job.jar com.example.YourJobClass /user/hadoop/input /user/hadoop/outputcom.example.YourJobClass为程序主类,/input和/output为HDFS路径)。监控作业
yarn application -list。获取结果
hadoop fs -get /user/hadoop/output /path/to/local/。hadoop fs -rm -r /user/hadoop/input /user/hadoop/output。说明:步骤中需确保Hadoop集群已正确配置并运行,且用户对相关目录有读写权限。具体命令参数可根据实际环境调整。