您好,登录后才能下订单哦!
怎么实现hadoop中RPC通信文件上传原理分析,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
//APP2中调用的代码 public static final String HDFS_PATH = "hdfs://hadoop:9000/hello"; public static final String DIR_PATH = "/d1000"; public static final String FILE_PATH = "/d1000/f10000"; public static void main(String[] args) throws Exception { FileSystem fileSystem = FileSystem.get(new URI(HDFS_PATH), new Configuration()); // //创建文件 // fileSystem.mkdirs(new Path(DIR_PATH)); // //上传文件 // FSDataOutputStream out = fileSystem.create(new Path(FILE_PATH)); // FileInputStream in = new FileInputStream("c:/hello.txt"); // IOUtils.copyBytes(in, out, 1024,true); // //下载数据 // FSDataInputStream in1 = fileSystem.open(new Path(FILE_PATH)); // IOUtils.copyBytes(in1, System.out, 1024,true); // 删除文件夹 deleteFile(fileSystem); } private static void deleteFile(FileSystem fileSystem) throws IOException { fileSystem.delete(new Path(FILE_PATH), true); }
注:RPC(remote procedure call)
不同java进程间的对象方法的调用。一方称作服务端(server),一方称作客户端(client)。
server端提供对象,供客户端调用的,被调用的对象的方法的执行发生在server端。
RPC是hadoop框架运行的基础。
上图为RPC通信调用的一系列方法最终达到把文件写入到linux文件系统中的过程,但是由于hadoop中hdfs分布式文件系统的API封装的特别好,让调用者感觉不到这个复杂的过程,对用户或者程序而言实际是通过网络来访问文件的动作,但对用户看来就像访问本地磁盘一样,充分体现了通透性....
对于HDFS的操作在应用中只需掌握FileSystem,而不需要关注数据是存放在DataNode的哪个块中(因为这个工作时交给NameNode的)。
注意:虽然客户端上传数据的时候是通过DataStreamer向NameNode申请block块和blockid,但是数据的传输行为并不是通过NameNode转的,而是与DataNode直接连接!
看完上述内容,你们掌握怎么实现hadoop中RPC通信文件上传原理分析的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注亿速云行业资讯频道,感谢各位的阅读!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。