您好,登录后才能下订单哦!
本篇文章给大家分享的是有关Hadoop中如何使用Shell命令,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
Hadoop Shell命令
FSShell
调用文件系统(FS)Shell命令应使用bin/hadoopfs<args>的形式。所有的的FSshell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FSShell命令的行为和对应的UnixShell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。
cat
使用方法:hadoopfs-catURI[URI…]
将路径指定文件的内容输出到stdout。
示例:
hadoopfs-cathdfs://host1:port1/file1hdfs://host2:port2/file2
hadoopfs-catfile:///file3/user/hadoop/file4
返回值:
成功返回0,失败返回-1。
copyFromLocal
使用方法:hadoopfs-copyFromLocal<localsrc>URI除了限定源路径是一个本地文件外,和put命令相似。
copyToLocal
使用方法:hadoopfs-copyToLocal[-ignorecrc][-crc]URI<localdst>
除了限定目标路径是一个本地文件外,和get命令类似。
cp
使用方法:hadoopfs-cpURI[URI…]<dest>
将文件从源路径复制到目标路径。这个Hadoop Shell命令允许有多个源路径,此时目标路径必须是一个目录。
示例:
hadoopfs-cp/user/hadoop/file1/user/hadoop/file2
hadoopfs-cp/user/hadoop/file1/user/hadoop/file2/user/hadoop/dir
返回值:
成功返回0,失败返回-1。
du
使用方法:hadoopfs-duURI[URI…]
此Hadoop Shell命令显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。
示例:
hadoopfs-du/user/hadoop/dir1/user/hadoop/file1hdfs://host:port/user/hadoop/dir1
返回值:
成功返回0,失败返回-1。
dus
使用方法:hadoopfs-dus<args>
显示文件的大小。
expunge
使用方法:hadoopfs-expunge
清空回收站。请参考HDFS设计文档以获取更多关于回收站特性的信息。
get
使用方法:hadoopfs-get[-ignorecrc][-crc]<src><localdst>
复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
示例:
hadoopfs-get/user/hadoop/filelocalfile
hadoopfs-gethdfs://host:port/user/hadoop/filelocalfile
返回值:
成功返回0,失败返回-1。Hadoop Shell命令还有很多,这里只介绍了其中的一部分。
以上就是Hadoop中如何使用Shell命令,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。