前言:
眼前你们对“hive从本地导入数据”可能比较注重,小伙伴们都想要了解一些“hive从本地导入数据”的相关知识。那么小编也在网络上收集了一些关于“hive从本地导入数据””的相关文章,希望咱们能喜欢,大家一起来学习一下吧!es-hadoop插件
上传es-hadoop插件到集群
准备hive数据
-- 连接hivebeeline -u "jdbc:hive2://worker-1:10000/;principal=hive/worker-1@HAINIU.COM"-- 创建临时表create table if not exists xiniu.hivetable( pk string, col1 int, col2 boolean, col3 timestamp, col4 string)comment 'hive表'row format delimited fields terminated by '\t';-- 加载数据load data inpath '/eslib/testfile' into table xiniu.hivetable;
导入hive数据到es
上传es-hadoop jar包
hadoop fs -put /opt/elasticsearch-hadoop-7.13.1.jar /eslib/加载es-hadoop jar包
add jar hdfs:///eslib/elasticsearch-hadoop-7.13.1.jar创建es的hive外表
CREATE EXTERNAL TABLE xiniu.hive2es(pk string,col1 string,col2 string,col3 string,col4 string)STORED BY 'org.elasticsearch.hadoop.hive.EsStorageHandler'TBLPROPERTIES('es.resource'='hivemappinges/_doc','es.nodes'='worker-1:9200,worker-2:9200,worker-3:9200','es.index.auto.create'='TRUE','es.index.refresh_interval' = '-1','es.index.number_of_replicas' = '0','es.batch.write.retry.count' = '6','es.batch.write.retry.wait' = '60s','es.mapping.name' = 'pk:pk,col1:col1,col2:col2,col3:col3,col4:col4');插入数据到es的hive外表
INSERT OVERWRITE TABLE xiniu.hive2es SELECT pk,col1,col2,col3,col4 FROM xiniu.hivetable;
海汼部落原创文章,原文链接:()
版权声明:
本站文章均来自互联网搜集,如有侵犯您的权益,请联系我们删除,谢谢。
标签: #hive从本地导入数据 #hive导入数据的四种方式