spark-1.6.1安装编译&&sparksql操作hive

发布时间:2020-08-15 09:45:27 作者:xiaobin0303
来源:网络 阅读:2451

maven:3.3.9 

jdk:java version "1.8.0_51"

spark:spark-1.6.1.tgz

scala:2.11.7

如果scala版本是2.11.x,执行如下脚本

./dev/change-scala-version.sh 2.11

spark默认情况下用scala的2.10.5编译


编译命令如下:

mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.0 -Phive -Phive-thriftserver -Dscala-2.11 -DskipTests clean package

红色部分为spark-sql链接hive的所需要的依赖,以及指定的scala的版本


注意:hive-site.xml文件需要放到$SPARK_HOME/conf目录下,否则找不到表



运用spark-sql访问hive

package com.infra.codelab.spark.hive
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object HiveTest {
  val conf = new SparkConf()
  val sc = new SparkContext(conf)
  def main(args: Array[String]): Unit = {
    val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
    sqlContext.sql("SELECT line FROM filecontent ").collect().foreach(println)
  }
}


提交任务:

spark-submit --class com.infra.codelab.spark.hive.HiveTest  --master spark://localhost:7077 /home/xiaobin/test/spark/wordcount-0.0.1-SNAPSHOT.jar



spark-sql:

export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/xiaobin/soft/apache-hive-0.14.0-bin/lib/mysql-connector-java-5.1.35.jar
spark-sql --master spark://xiaobin:7077
spark-sql> select count(*) from filecontent;
483                                                          
Time taken: 3.628 seconds, Fetched 1 row(s)



推荐阅读:
  1. hive 安装
  2. Hive基本操作

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

编译 spark sparksql

上一篇:Linux操作系统检测TCP/UDP端口连通性的简单方法

下一篇:Springboot配置过滤器的方法

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》