Hadoop学习--URL方法访问HDFS数据--day04

发布时间:2020-07-21 09:37:51 作者:zhicx
来源:网络 阅读:4023

import java.io.ByteArrayOutputStream;

import java.io.InputStream;

import java.net.URL;


import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;

import org.apache.hadoop.io.IOUtils;

import org.junit.Test;


public class TestFileSystemURL {

static {

URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());

}


/**

* 通过URL对象读取HDFS文件数据

* @author Administrator

* 想要从HDFS中读取数据,首先我们考虑的是从WEBUI的那种方式去取出数据

* 1.定义一个URL对象,该URL对象封装了该HDFS的URL地址信息

* 2.调用openStream()方法打开一个输入流

* 3.通过IOUtils工具类把输入流复制到字节数组输出流中,然后打印输出字节输出流的信息

*/

@Test

public void readByURL() throws Exception {

// 配置需要读取的URL地址的文件

String urlStr = "hdfs://hadoop01:9000/user/hadoop/data/hello.txt";

// 通过URL的带string的构造方法来创建URL对象

URL url = new URL(urlStr);

// 调用URL对象的openStream()方法得到一个inputstream对象

InputStream is = url.openStream();

//定义一个字符数组

// byte[] bys = new byte[1024];

// int len =0;

//有三部,读取,赋值,判断,一次读取一个字符数组,返回值是读取的字符数组的长度,如果已经到

//文件的末尾了,就返回-1

// while((len=is.read(bys))!=-1){

//输出一个字符数组,准确的说是输出字符数组的一部分,从0开始到读取的长度结束,print后面不加

//ln

// System.out.print(new String(bys,0,len));

// }

// 创建字节数组输出流对象

ByteArrayOutputStream baos = new ByteArrayOutputStream();

// hadoop提供的IOUtils方法来实现流的对拷

IOUtils.copyBytes(is, baos, 1024);

// 关闭流对象

IOUtils.closeStream(is);

System.out.println(new String(baos.toByteArray()));

   }

}


推荐阅读:
  1. Hadoop 之 HDFS
  2. Hadoop学习--seek重定位流--day04

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

url hadoop hdfs

上一篇:Redis简介

下一篇:fail的意思是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》