您好,登录后才能下订单哦!
运行Spark例子程序是怎样实现的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。
下载并解压Spark到指定目录,如果没有安装JDK、Scala,需要先下载JDK、Scala到指定目录,并设置SPKARK_HOME(JAVA_HOME、SCALA_HOME).
如果只是在单节点上运行Spark,无需启动Spark,直接按『三、运行例子程序』运行即可。 如若需要在集群上运行Spark例子程序,需要先启动Spark集群。将已经可以互相无密码登陆的从节点名(或IP地址)加入到主节点的conf/slaves文件中,再将配置好的主节点的Spark的整个目录拷贝到其他所有从节点。在直接运行启动集群脚本:
./start-all.sh # 关闭集群 ./stop-all.sh
在单个节点上运行例子无需启动集群:
./bin/run-example SparkPi 10 ./bin/run-example graphx.LiveJournalPageRank follower.txt --numEPart=2 # 运行Python的例子程序 ./bin/spark-submit examples/src/main/python/pi.py 10 ./bin/spark-submit examples/src/main/python/PageRank.py follower.txt 10
./bin/spark-submit --master spark://A281:7077 --class org.apache.spark.examples.graphx.LiveJournalPageRank lib/spark-examples-1.6.0-hadoop2.6.0.jar followers.txt --numEPart=2
关于运行Spark例子程序是怎样实现的问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。