spark技巧有哪些呢

发布时间:2021-12-16 18:51:41 作者:柒染
来源:亿速云 阅读:125

spark技巧有哪些呢,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

1. 设置消息尺寸最大值

def main(args: Array[String]) {
    System.setProperty("spark.akka.frameSize", "1024")
}

2.与yarn结合时设置队列

val conf=new SparkConf().setAppName("WriteParquet")
conf.set("spark.yarn.queue","wz111")
val sc=new SparkContext(conf)

3.运行时使用yarn分配资源,并设置--num-executors参数

nohup /home/SASadm/spark-1.4.1-bin-hadoop2.4/bin/spark-submit
--name mergePartition
--class main.scala.week2.mergePartition
--num-executors 30
--master yarn
mergePartition.jar >server.log 2>&1 &

4.读取impala的parquet,对String串的处理

sqlContext.setConf("spark.sql.parquet.binaryAsString","true")

5.parquetfile的写

case class ParquetFormat(usr_id:BigInt , install_ids:String )
val appRdd=sc.textFile("hdfs://").map(_.split("\t")).map(r=>ParquetFormat(r(0).toLong,r(1)))
sqlContext.createDataFrame(appRdd).repartition(1).write.parquet("hdfs://")

 

6.parquetfile的读

val parquetFile=sqlContext.read.parquet("hdfs://")
parquetFile.registerTempTable("install_running")
val data=sqlContext.sql("select user_id,install_ids from install_running")
data.map(t=>"user_id:"+t(0)+" install_ids:"+t(1)).collect().foreach(println)

7.写文件时,将所有结果汇集到一个文件

repartition(1)

8.如果重复使用的rdd,使用cache缓存

cache()

9.spark-shell 添加依赖包

 spark-1.4.1-bin-hadoop2.4/bin/spark-shell local[4] --jars code.jar

10.spark-shell使用yarn模式,并使用队列

spark-1.4.1-bin-hadoop2.4/bin/spark-shell --master yarn-client --queue wz111

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注亿速云行业资讯频道,感谢您对亿速云的支持。

推荐阅读:
  1. python爬虫的实践技巧有哪些呢
  2. Spark的知识点有哪些呢

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark

上一篇:vue中有哪些自定义指令

下一篇:怎么解析Python中的Dict

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》