您好,登录后才能下订单哦!
这篇文章给大家介绍SparkSQL访问Hive遇到的问题及解决方法是什么,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
需要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中
测试代码
报错
查看源码
解决方法
将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中
继续报错
查看源码
进入ConfVars
发现ConfVars中定义的变量并没有METASTORE_CLIENT_SOCKET_LIFETIME,而HiveConf.java来自于hive-exec-1.1.0-cdh6.7.0.jar,即证明hive1.1.0中并没有假如该参数。
解决方法
将hive依赖换为1.2.1
继续报错
解决方法
这是因为远端没有启动hive造成的,启动hive时需要配置metastore。
关于SparkSQL访问Hive遇到的问题及解决方法是什么就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。