实现R与Hadoop联合作业的三种方法是怎样的

发布时间:2021-11-12 17:13:10 作者:柒染
来源:亿速云 阅读:139

这篇文章将为大家详细讲解有关实现R与Hadoop联合作业的三种方法是怎样的,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

为了满足用R语言处理pb量级数据的需求,我们需要把它和Hadoop联合起来使用。阐述实现二者联合作业的不同技术。方法一:利用Streaming APIs

Hadoop支持一些 Streaming API来将R语言中的函数传入,并在MapReduce模式下运行这些函数。这些Streaming  API可以将任意能在map-reduce模式下访问和操作标准I/O接口的R脚本传入Hadoop中。因此,你不需要额外开启一些客户端之类的东西。如下是一个例子:

实现R与Hadoop联合作业的三种方法是怎样的

方法二:使用Rhipe包

Rhipe包允许用户在R中使用MapReduce。在使用这一方法前,要做相应的前期准备工作。R需要被安装在Hadoop集群中的每一个数据节点上,此外每个节点还要安装Protocol  Buffers(更多资料请参考  http://wiki.apache.org/hadoop/ProtocolBuffers),Rhipe也需要在每个节点上都可以被使用。

下面是在R中利用Rhipe应用MapReduce框架的范例:

实现R与Hadoop联合作业的三种方法是怎样的

方法三:使用RHadoop

RHadoop是Recolution  Analytics下的一个开源库,与Rhipe类似,它的功能也是在MapReduce模式下执行R函数。后续列举的都是该库中的一些包。plyrmr  包可以在Hadoop中对大数据集进行一些常用的数据整理操作。rmr包提供了一些让R和Hadoop联合作业的函数。rdfs包提供了一些函数来连接R  和分布式文件系统(HDFS)。rhbase包中的函数则能连接R和HBase。

下面这个例子中,我们会演示如何使用rmr包中的一些函数来让R与Hadoop联合作业。

实现R与Hadoop联合作业的三种方法是怎样的

方法总结

总的说来,上述三种方法都能很容易地实现R与Hadoop的联合作业,这样一来R就拥有了在分布式文件系统(HDFS)上处理大数据的能力。但同时,这三种方法也各有利弊。

关键结论:

1、使用Streaming  APIs最为简单,它的安装和设置都很方便。Rhipe和RHadoop都需要对R进行一些设置,并且也需要Hadoop集群上一些包的支持。但在执行函数方面,Streaming  APIs 需要将函数依次map和reduce,而Rhipe和RHadoop允许开发者在R函数中定义并调用MapReduce函数。

2、与Rhipe和RHadoop不同,使用Streamings APIs也不需要客户端。

3、除此之外,我们也可以使用Apache Mahout,Apache Hive,Segue框架与其他来自Revolution  Analytics的商业版R来实现大规模机器学习。

关于实现R与Hadoop联合作业的三种方法是怎样的就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

推荐阅读:
  1. Hadoop的三种模式的安装
  2. 什么是mysql的联合查询

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

hadoop

上一篇:loadrunner测试过程中遇到的问题及解决方法

下一篇:Django中的unittest应用是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》