龙空技术网

Atlas安装与使用

尚硅谷教育 1149

前言:

眼前小伙伴们对“apache解压版启动错误1”大体比较注重,我们都需要剖析一些“apache解压版启动错误1”的相关知识。那么小编在网络上汇集了一些对于“apache解压版启动错误1””的相关内容,希望咱们能喜欢,咱们快快来了解一下吧!

前言

Apache Atlas为组织提供开放式元数据管理和治理功能,用以构建其数据资产目录,对这些资产进行分类和管理,并为数据分析师和数据治理团队,提供围绕这些数据资产的协作功能。本文就介绍Atlas在Apache Hadoop环境下的安装。

1)表与表之间的血缘依赖

2)字段与字段之间的血缘依赖

特性与环境准备

Atlas2.0特性

(1)更新了组件可以使用

Hadoop3.1,Hive3.1,Hive3.0,Hbase2.0,Solr7.5和Kafka2.0

(2)将JanusGraph版本更新为0.3.1

(3)更新了身份验证支持可信代理

(4)更新了指标模块收集通知

(5)支持Atlas增量导出元数据

准备3台主机,hadoop101,hadoop102,hadoop103。

Atlas安装分为:集成自带的HBase + Solr;集成外部的HBase + Solr。

这里安装采用集成外部Hase+Solr。环境准备如下图

服务名称

子服务

服务器

hadoop101

服务器

hadoop102

服务器

hadoop103

HDFS

NameNode

DataNode

SecondaryNameNode

Yarn

NodeManager

Resourcemanager

Zookeeper

QuorumPeerMain

Kafka

Kafka

HBase

HMaster

HRegionServer

Solr

Jar

Hive

Hive

MySQL

MySQL

Azkaban

AzkabanWebServer

AzkabanExecutorServer

Atlas

atlas

服务数总计

13

7

7

安装Atlas

前置的一些环境,Hadoop,Zookeeper,MySql这些服务就不演示安装了,准备好Atlas压缩包,进行安装

(1)把apache-atlas-2.0.0-server.tar.gz 上传到hadoop101的/opt/software目录下

(2)解压apache-atlas-2.0.0-server.tar.gz

到/opt/module/目录下面

[root@hadoop101 software]# tar -zxvf apache-atlas-2.0.0-server.tar.gz -C /opt/module/

(3)修改apache-atlas-2.0.0的名称为atlas

[root@hadoop101 module]# mv apache-atlas-2.0.0/ atlas

集成HBase

(1)集成外部HBase,进入/opt/module/atlas/conf/目录,修改配置文件

[root@hadoop101 conf]$ vim atlas-application.properties #修改atlas存储数据主机atlas.graph.storage.hostname=hadoop101:2181,hadoop102:2181,hadoop103:2181

(2)进入到/opt/module/atlas/conf/hbase路径,

添加Hbase集群的配置文件到${Atlas_Home}

[root@hadoop101 conf]# ln -s /opt/module/hbase-2.2.4/conf/ /opt/module/atlas/conf/hbase/

(3)在/opt/module/atlas/conf/atlas-env.sh中添加HBASE_CONF_DIR

[root@hadoop101 conf]$ vim atlas-env.sh#添加HBase配置文件路径export HBASE_CONF_DIR=/opt/module/hbase-2.2.4/conf

(1)安装Solr,上传并解压solr-7.7.3.tgz

到/opt/module/目录下面

[root@hadoop101 software]# tar -zxvf solr-7.7.3.tgz -C /opt/module/[root@hadoop101 module]# cd solr-7.7.3/[root@hadoop101 solr-7.7.3]# vim bin/solr.in.shZK_HOST="hadoop101:2181,hadoop102:2181,hadoop103:2181"SOLR_PORT=8983SOLR_ULIMIT_CHECKS=flase

(2)分发

[root@hadoop101 module]# scp -r solr-7.7.3/ hadoop103:/opt/module/[root@hadoop101 module]# scp -r solr-7.7.3/ hadoop103:/opt/module/

(3)修改限制

[root@hadoop101 solr-7.7.3]# vim /etc/security/limits.conf* hard nproc 65000* soft nproc 65000[root@hadoop101 solr-7.7.3]# ulimit -u 65000

(4)启动solr集群,启动后访问端口8983,UI界面出现Cloud模式即成功

[root@hadoop101 solr-7.7.3]# bin/solr start -force[root@hadoop102 solr-7.7.3]# bin/solr start -force[root@hadoop103 solr-7.7.3]# bin/solr start -force

(5)atlas集成solr,进入/opt/module/atlas/conf目录下,修改配置文件

[root@hadoop101 conf]$ vim atlas-application.properties #修改如下配置atlas.graph.index.search.backend=solratlas.graph.index.search.solr.mode=cloudatlas.graph.index.search.solr.zookeeper-url=hadoop101:2181,hadoop102:2181,hadoop103:2181

(6)将atlas自带的solr文件夹拷贝到外部solr集群的各个节点

[root@hadoop101 conf]# cp -r solr/ /opt/module/solr-7.7.3/[root@hadoop101 conf]# cd /opt/module/solr-7.7.3/scp -r solr-7.7.3/ hadoop102:/opt/module/scp -r solr-7.7.3/ hadoop103:/opt/module/[root@hadoop101 solr-7.7.3]# bin/solr start -force[root@hadoop102 solr-7.7.3]# bin/solr start -force[root@hadoop103 solr-7.7.3]# bin/solr start -force[root@hadoop101 solr-7.7.3]# bin/solr create -force -c vertex_index -d /opt/module/solr-7.7.3/atlas_conf -shards 3 -replicationFactor 2[root@hadoop101 solr-7.7.3]# bin/solr create -force -c edge_index -d /opt/module/solr-7.7.3/atlas_conf -shards 3 -replicationFactor 2[root@hadoop101 solr-7.7.3]# bin/solr create -force -c fulltext_index -d /opt/module/solr-7.7.3/atlas_conf -shards 3 -replicationFactor 2

集成Kafka

(1)进入/opt/module/atlas/conf/目录,

修改配置文件atlas-application.properties

[root@hadoop101 conf]$ vim atlas-application.properties atlas.notification.embedded=falseatlas.kafka.data=/opt/module/kafka_2.11-2.4.1/logsatlas.kafka.zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181atlas.kafka.bootstrap.servers=hadoop101:9092,hadoop102:9092,hadoop103:9092atlas.kafka.zookeeper.session.timeout.ms=400atlas.kafka.zookeeper.connection.timeout.ms=200atlas.kafka.zookeeper.sync.time.ms=20atlas.kafka.auto.commit.interval.ms=1000atlas.kafka.hook.group.id=atlas

其他配置

(1)进入/opt/module/atlas/conf/目录,

修改配置文件atlas-application.properties

[root@hadoop101 conf]$ vim atlas-application.properties #########  Server Properties  #########atlas.rest.address= If enabled and set to true, this will run setup steps when the server startsatlas.server.run.setup.on.start=false#########  Entity Audit Configs  #########atlas.audit.hbase.zookeeper.quorum=hadoop101:2181,hadoop102:2181,hadoop103:2181

(2)进入/opt/module/atlas/conf/路径,

修改当前目录下的atlas-log4j.xml

[root@hadoop101 conf]$ vim atlas-log4j.xml#去掉如下代码的注释<appender name="perf_appender" class="org.apache.log4j.DailyRollingFileAppender">    <param name="file" value="${atlas.log.dir}/atlas_perf.log" />    <param name="datePattern" value="'.'yyyy-MM-dd" />    <param name="append" value="true" />    <layout class="org.apache.log4j.PatternLayout">        <param name="ConversionPattern" value="%d|%t|%m%n" />    </layout></appender><logger name="org.apache.atlas.perf" additivity="false">    <level value="debug" />    <appender-ref ref="perf_appender" /></logger>

集成Hive

(1)进入/opt/module/atlas/conf/目录,

修改配置文件atlas-application.properties

[root@hadoop101 conf]$ vim atlas-application.properties ######### Hive Hook Configs #######atlas.hook.hive.synchronous=falseatlas.hook.hive.numRetries=3atlas.hook.hive.queueSize=10000atlas.cluster.name=primary

(2)在/opt/module/hive/conf/hive-site.xml文件中设置Atlas hook

[root@hadoop101 conf]# cd /opt/module/apache-hive-3.1.2-bin/conf/[atguigu@hadoop102 conf]$ vim hive-site.xml<property>      <name>hive.exec.post.hooks</name>      <value>org.apache.atlas.hive.hook.HiveHook</value></property>
[root@hadoop101 atlas]# cd /opt/software/[root@hadoop101 software]# tar zxvf apache-atlas-2.0.0-hive-hook.tar.gz -C /opt/module/[root@hadoop101 conf]# mv hive-env.sh.template hive-env.sh[root@hadoop101 module]# cd apache-atlas-hive-hook-2.0.0/[root@hadoop101 apache-atlas-hive-hook-2.0.0]# cp -r hook /opt/module/atlas/[root@hadoop101 module]# cd /opt/module/apache-hive-3.1.2-bin/conf/[root@hadoop101 conf]$ vim hive-env.sh export HIVE_AUX_JARS_PATH=/opt/module/atlas/hook/hive[root@hadoop101 atlas]# zip -u /opt/module/atlas/hook/hive/atlas-plugin-classloader-2.0.0.jar /opt/module/atlas/conf/atlas-application.properties [root@hadoop101 atlas]# cp /opt/module/atlas/conf/atlas-application.properties  /opt/module/apache-hive-3.1.2-bin/conf/

启动集群

(1)启动Hadoop

[root@hadoop101 hadoop-2.7.2]$ sbin/start-dfs.sh[root@hadoop102 hadoop-2.7.2]$ sbin/start-yarn.sh

(2)启动Zookeeper

[root@hadoop101 zookeeper-3.4.10]$ zk.sh start

(3)启动Kafka

[root@hadoop101 kafka]$ kf.sh start

(4)启动Hbase

[root@hadoop101 hbase]$ bin/start-hbase.sh

(5)启动Solr

[root@hadoop101 solr]$ bin/solr start[root@hadoop102 solr]$ bin/solr start[root@hadoop103 solr]$ bin/solr start

(6)进入/opt/module/atlas路径,重新启动Atlas服务

[root@hadoop101 atlas]$ bin/atlas_stop.py[root@hadoop101 atlas]$ bin/atlas_start.py

提示:错误信息查看路径:/opt/module/atlas/logs/*.out和application.log

访问地址:

注意:等待时间大概2分钟。

账户:admin

密码:admin

导入Hive元数据

(1)配置Hive环境变量

[root@hadoop101 hive]$ sudo vim /etc/profile#配置Hive环境变量export HIVE_HOME=/opt/module/apache-hive-3.1.2-binexport PATH=$PATH:$HIVE_HOME/bin[root@hadoop101 hive]$ source /etc/profile

(2)启动Hive,如果Hive能正常启动说明环境OK,就可以退出Hive客户端

[root@hadoop101 hive]$ hivehive (default)> show databases;hive (default)> use gmall;

(3)在/opt/module/atlas/路径,将Hive元数据导入到Atlas

[root@hadoop101 conf]# pwd/opt/module/atlas/conf[root@hadoop101 conf]#cp atlas-application.properties /opt/module/apache-atlas-hive-hook-2.0.0/hook[root@hadoop101 conf]# cd /opt/module/apache-atlas-hive-hook-2.0.0/[root@hadoop101 apache-atlas-hive-hook-2.0.0]# cd hook-bin/[root@hadoop101 hook-bin]# ./import-hive.sh输入用户名:admin;输入密码:adminEnter username for atlas :- adminEnter password for atlas :-Hive Meta Data import was successful!!!

使用

(1)访问端口号 进行登录

(2)账号密码默认admin

(3)查询相应Hive库,选择hive_db

(4)查询hive进程

(5)查询hive表

(6)查询hive列

(7)执行每日Sql任务,查看表的血缘关系

大数据和云计算的关系

大数据技术生态体系

大数据HBase原理

大数据项目架构

大数据面试题整合

标签: #apache解压版启动错误1