在Hadoop中引用文件可以使用Hadoop的Java API来实现。以下是一个示例代码:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HadoopFileReader {
public static void main(String[] args) throws Exception {
// 创建Hadoop配置对象
Configuration conf = new Configuration();
// 创建文件系统对象
FileSystem fs = FileSystem.get(conf);
// 定义要引用的文件路径
Path filePath = new Path("hdfs://localhost:9000/input/file.txt");
// 打开文件并读取内容
try (FSDataInputStream inputStream = fs.open(filePath)) {
byte[] buffer = new byte[1024];
int bytesRead = -1;
while ((bytesRead = inputStream.read(buffer)) > 0) {
String line = new String(buffer, 0, bytesRead);
System.out.println(line);
}
}
// 关闭文件系统对象
fs.close();
}
}
注意,需要替换hdfs://localhost:9000/input/file.txt
为你要引用的Hadoop文件的实际路径。此代码将读取文件的内容并将其打印到控制台。你可以根据自己的需求修改代码来进行其他操作,如写入文件、复制文件等。