前言:
此时各位老铁们对“sparksql hive on spark”大体比较珍视,大家都需要剖析一些“sparksql hive on spark”的相关文章。那么小编同时在网上搜集了一些关于“sparksql hive on spark””的相关内容,希望小伙伴们能喜欢,同学们快快来学习一下吧!需要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中
测试代码
报错
查看源码
解决方法
将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中
继续报错
查看源码
进入ConfVars
发现ConfVars中定义的变量并没有METASTORE_CLIENT_SOCKET_LIFETIME,而HiveConf.java来自于hive-exec-1.1.0-cdh5.7.0.jar,即证明hive1.1.0中并没有假如该参数。
解决方法
将hive依赖换为1.2.1
继续报错
解决方法
这是因为远端没有启动hive造成的,启动hive时需要配置metastore。