前言:
眼前兄弟们对“centos7启动opentsdb”大致比较看重,同学们都需要了解一些“centos7启动opentsdb”的相关知识。那么小编同时在网上汇集了一些关于“centos7启动opentsdb””的相关资讯,希望大家能喜欢,小伙伴们快快来了解一下吧!Centos7在线搭建Ambari大数据平台安装前准备1)配置hostname
#vi /etc/hostname
bigdata-1
注意:其他机器要更改序号bigdata-2......
配置hosts文件
#vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.154.132 bigdata-1
192.168.154.133 bigdata-2
192.168.154.134 bigdata-3
以上两项配置完成,重启生效。
关闭防火墙
#systemctl stop firewalld.service
#systemctl disable firewalld.service
查看状态
#firewall-cmd --state
4)Centos服务器ssh免密设置
Ambari 的 Server 会 SSH 到 Agent 的机器,拷贝并执行一些命令。因此我们需要配置 Ambari Server 到 Agent 的 SSH 无密码登录。
在Ambari Server节点执行如下命令:
先在所有节点执行以下命令
#ssh-keygen -t rsa (回车后再按连续三个回车)
在bigdata-1进行
#cd .ssh/
#cat id_rsa.pub >> authorized_keys
然后将authorized_keys拷贝到其他2台机器的.ssh目录,如下:
#scp authorized_keys bigdata-2:/root/.ssh/
在bigdata-2节点执行
#cd .ssh/
#cat id_rsa.pub >> authorized_keys
#scp authorized_keys bigdata-3:/root/.ssh/
超过三个节点,依此类推。
验证:
在bigdata-1上执行命令:
#ssh bigdata-2 date; ssh bigdata-3 date;
5)确保 Yum 可以正常工作
通过公共库(public repository),安装 Hadoop 这些软件,背后其实就是应用 Yum 在安装公共库里面的 rpm 包。所以这里需要您的机器都能访问 Internet
3)获取Ambari公共库文件
需要获取 Ambari 的公共库文件(public repository)。登录到 Linux 主机并执行下面的命令(也可以自己手工下载)
cd /etc/yum.repos.d/
wget
安装ambari server
我们需要获取该公共库的所有的源文件列表。依次执行以下命令。
#yum clean all
#yum list|grep ambari
1)安装ambari server
#yum install ambari-server
2)配置ambari server
#ambari-server setup
3)启动ambari server
#ambari-server start
配置安装大数据组件
当成功启动 Ambari Server 之后,便可以从浏览器登录,默认的端口为 8080。以本文环境为例,在浏览器的地址栏输入 ,登录密码为 admin/admin。登入 Ambari 之后的页面如下图。
点击按钮“LAUNCH INSTALL WIZARD”,就可以开始创建属于自己的大数据平台。
1)命名集群
本环境为 bigdata
2)选择一个 Stack
这个 Stack 相当于一个 Hadoop 生态圈软件的集合。Stack 的版本越高,里面的软件版本也就越高。这里我们选择 HDP3.0,由于操作系统是centos7.4,因此选择redhat7,其他的都remove掉。
3)指定 Agent 机器
本文环境机器名为: bigdata-1,bigdata-2,bigdata-3.这些机器会被安装 Hadoop 等软件包。这里需要指定当时在 Ambari Server 机器生成的私钥(ssh-keygen 生成的,公钥已经拷贝到 Ambari Agent 的机器)。另外不要选择“Perform manual registration on hosts and do not use SSH“。因为我们需要 Ambari Server 自动去安装 Ambari Agent。
警告提示域名不规范,点击【继续】按钮。
安装 Ambari Agent
Ambari Server 会自动安装 Ambari Agent 到刚才指定的机器列表。安装完成后,Agent 会向 Ambari Server 注册。成功注册后,就可以继续 Next 到下一步。
选择要安装的组件
在这一步,我们需要选择要安装的软件名称。选的越多,就会需要越多的机器内存。选择之后就可以继续下一步了。这里需要注意某些 Service 是有依赖关系的。如果您选了一个需要依赖其他 Service 的一个 Service,Ambari 会提醒安装对应依赖的 Service
为了节省资源,仅选择近期可能用到的组件,后续如果需要其他组件,可以再补充安装。
告警提示没有选择Ranger等,点击【继续处理】按钮
选择Master机器
这里使用默认选择即可
选择Slaves and Clients
资源有限,因此本文环境全部选ALL。
组件配置
为了便于记忆,密码全设置成bigdata
数据目录选择单独磁盘目录,或根据实际情况选择空间大的目录分区。虚机的根目录若是空间比较小,若/home分区比较大,建议再根分区创建/data软连接到空间大分区(目录配置限制不能直接配置/home目录)。
配置汇总:
检查:
安装组件
Ambari 会开始安装选择的 Service 到 Ambari Agent 的机器。这里可能需要等好一会,因为都是在线安装。安装完成之后,Ambari 就会启动这些 Service。
Ambari 的 Dashboard
安装完成之后,就可以查看 Ambari 的 Dashboard 了
Ambari集成OpenTSDB
Ambari集成OpenTSDB有以下两种方式:
1)手动安装
步骤1:下载ambari-opentsdb-service
#git clone /var/lib/ambari-server/resources/stacks/HDP/3.0/services/OPENTSDB
步骤2:修改master.py
编辑/var/lib/ambari-server/resources/stacks/HDP/3.0/services/OPENTSDB/package/scripts/master.py
注释掉如下几行:
步骤3:修改metainfo.xml
编辑/var/lib/ambari-server/resources/stacks/HDP/3.0/services/OPENTSDB/metainfo.xml
步骤4:修改opentsdb-config.xml和README.md
步骤5:重启ambari server和agent
#ambari-server restart
#ambari-agent restart
步骤6:下载opentsdb-2.4.0.tar.gz 并处理安装目录
#wget -O /tmp/opentsdb.tar.gz
#mkdir opentsdb
#tar -zxvf /tmp/opentsdb.tar.gz -C /root/opentsdb
#mv /root/opentsdb/*/* /root/opentsdb
#mv /root/opentsdb/opentsdb-2.4.0/.git /root/opentsdb/
#cd /root/opentsdb
#mkdir build
#cp -r third_party ./build
步骤7:ambari的web上add service
一直next直到deploy,然后安装成功。
2)自动安装
步骤1:下载ambari-opentsdb-service
#git clone /var/lib/ambari-server/resources/stacks/HDP/3.0/services/OPENTSDB
步骤2:重启ambari server和agent
#ambari-server restart
#ambari-agent restart
步骤4:ambari的web上add service
安装遇到问题及解决方案1)hive安装链接数据库连接不上
在ambari-server所在的节点上运行
#ambari-serversetup --jdbc-db=postgres --jdbc-driver=/usr/share/java/postgresql-jdbc.jar
切换用户到数据库模式下
[root@node2 yum.repos.d]# su - postgres
进入数据库命令行模式
-bash-4.2$ psql
psql (9.2.13)
Type "help" for help.
postgres=#
postgres=# \l 查看数据库命令,暂时还没有安装hive所需的hive数据库
postgres=# create database hive; 创建hive所需的hive数据库
CREATE DATABASE
postgres=# \l 已创建hive所需的hive数据库
postgres=#
postgres=# create user hive; 创建hive所需的hive用户
CREATE ROLE
为了能够顺利连接上数据库还需要修改配置文件/var/lib/pgsql/data/pg_hba.conf
# TYPE DATABASE USER ADDRESS METHOD
# "local" is for Unix domain socket connections only
local all all peer
# IPv4 local connections:
host all all 127.0.0.1/32 ident
# IPv6 local connections:
host all all ::1/128 ident
加上红色的这一句,无需密码和ssl链接
hostnossl hive hive hiveserverip/32 trust
# Allow replication connections from localhost, by a user with the
# replication privilege.
#local replication postgres peer
#host replication postgres 127.0.0.1/32 ident
#host replication postgres ::1/128 ident
修改配置完毕,重启postgresql服务
-bash-4.2$ pg_ctl -m fast stop
-bash-4.2$ pg_ctl restart
在web上的hive配置页面测试一下hive数据库是否能正确连接
2)YARN REGISTRY DNS 启动失败
看日志是53端口被占用,可以通过 lsof -i:53 查看个进程占用了53端口,发现是dnsmasq这个工具占用。通过如下命令停止并禁用dnsmasq:
#systemctl stop dnsmasq
#systemctl disable dnsmasq
3)集成airflow时报各种问题时可采取的手段。
问题1、RuntimeError: Failed to execute command '/usr/bin/yum -y install python-pip', exited with code '1', message: '错误:无须任何处理
yum -y install epel-release
问题2、resource_management.core.exceptions.ExecutionFailed: Execution of 'pip install --upgrade docutils pytest-runner Cython==0.28' returned 1. Collecting docutils
pip install --upgrade docutils==0.15 pytest-runner Cython==0.28 -i --trusted-host pypi.douban.com
问题3、resource_management.core.exceptions.ExecutionFailed: Execution of 'export SLUGIFY_USES_TEXT_UNIDECODE=yes && pip install --upgrade --ignore-installed apache-airflow[all]==1.10.0' returned 1. DEPRECATION: Python 2.7 reached the end of its life on January 1st, 2020. Please upgrade your Python as Python 2.7 is no longer maintained. A future version of pip will drop support for Python 2.7. More details about Python 2 support in pip, can be found at
yum -y install epel-release
yum -y install numpy openldap-devel gpm-devel dbus-devel dbus-glib-devel dbus-python
pip install --upgrade docutils pytest-runner Cython==0.28 -i --trusted-host pypi.douban.com
pip install --ignore-installed dogtag-pki
pip install --ignore-installed pyldap
pip install --ignore-installed dbus-python
pip install --ignore-installed dnspython
问题4、Building wheel for JPype1 (setup.py): finished with status 'error'
pip install wheel JPype1==0.7.0 marshmallow-sqlalchemy==0.18.0 marshmallow==2.18.0 SQLAlchemy==1.1.18
问题5、ERROR: Cannot uninstall 'numpy'. It is a distutils installed project and thus we cannot accurately determine which files belong to it which would lead to only a partial uninstall.
pip install --upgrade --ignore-installed numpy==1.16.6
export SLUGIFY_USES_TEXT_UNIDECODE=yes && pip install --upgrade apache-airflow[all]==1.10.0
export SLUGIFY_USES_TEXT_UNIDECODE=yes && pip install --upgrade apache-airflow[celery]==1.10.0
pip uninstall -y JPype1 flask-login flask jinja2 werkzeug tzlocal SQLAlchemy marshmallow-sqlalchemy marshmallow flask-appbuilder flask-jwt-extended click docutils msrest azure-datalake-store thrift boto3 botocore
pip install --ignore-installed flask-login==0.2.11 flask==0.12.4 jinja2==2.8 werkzeug==0.14.1 tzlocal==1.5.1 marshmallow-sqlalchemy==0.18.0 marshmallow==2.18.0 SQLAlchemy==1.1.18 click==6.7 flask-appbuilder==1.11.1 flask-jwt-extended==3.19.0 docutils==0.15 msrest==0.6.10 azure-datalake-store==0.0.48 thrift==0.9.3 boto3==1.4.4 botocore==1.5.0
export SLUGIFY_USES_TEXT_UNIDECODE=yes && pip install --upgrade JPype1==0.7.0 flask-login==0.2.11 flask==0.12.4 jinja2==2.8 werkzeug==0.14.1 tzlocal==1.5.1 marshmallow-sqlalchemy==0.18.0 marshmallow==2.18.0 SQLAlchemy==1.1.18 click==6.7 flask-appbuilder==1.11.1 flask-jwt-extended==3.19.0 docutils==0.15 msrest==0.6.10 azure-datalake-store==0.0.48 thrift==0.9.3 boto3==1.4.4 botocore==1.5.0 --ignore-installed apache-airflow[all]==1.10.0
4)集成Elasticsearch时,集群启动异常,报找不到主节点。
Master node和data node不能安装在同一个节点上,要想节点既是master节点又可作为data节点的话,配置时,配置masters_also_are_datanodes为true即可。
另外:设置node.master: true后,从界面restart可能会覆盖配置,要在各个节点root用户手工从命令行执行重启操作: service elasticsearch restart
5)集成flink1.9.1报esource_management.core.exceptions.Fail: User 'flink' doesn't exist
每个节点执行如下操作:
groupadd flink
useradd -g flink -d /home/flink flink
集成flink1.9.1配置问题flink启动失败
问题描述:resource_management.core.exceptions.ExecutionFailed: Execution of 'yarn application -list 2>/dev/null | awk '/flinkapp-from-ambari/ {print $1}' | head -n1 > /var/run/flink/flink.pid' returned 1. -bash: /var/run/flink/flink.pid: 没有那个文件或目录
解决方案:
mkdir /var/run/flink
集成OpenTSDB问题
问题描述:
configure: error: cannot find install-sh, install.sh, or shtool in build-aux ".."/build-aux #2072
resource_management.core.exceptions.ExecutionFailed: Execution of 'cd /root/opentsdb; ./build.sh >> /var/log/opentsdb.log' returned 1. + test -f configure
+test -d build
+cd build
+test -f Makefile
+../configure
configure: error: cannot find install-sh, install.sh, or shtool in build-aux ".."/build-aux
解决方法:
这个错误由 configure 脚本文件中的如下行代码引起:
for ac_ dir in build-aux “$srcdir“”/build-aux; do
Configure文件在opentsdb-2.4.0.tar.gz 中,configure中改行改为如下即可:
for ac_ dir in build-aux $srcdir/build-aux; do
改完之后重新打压缩上传到安装包目录即可。
该问题已经在github上提交issue:
OpenTSDB的WEBUI查询报错:
问题描述:Request failed: Internal Server Error net.opentsdb.core.IllegalDataException:Duplicate timestamp for key=[68, -110, -13, 90, 60, -97, 96, 0, 0, 1, 0, 0, 1, 0, 0, 2, 0, 0, 95, 0, 0, 3, 0, 0, 4], ms_offset=1356000, older=[66, -41, -21, -63], newer=[66, -41, -21, -60]; set tsd.storage.fix_duplicates=true to fix automatically or run Fsck
解决方案:
步骤1:在Opentsdb的配置文件opentsdb.conf当中,追加上这个配置条件tsd.storage.fix_duplicates=true即可
步骤2:修改ambari门户中opentsdb服务的启动命令,添加opentsdb.conf配置项
/build/tsdb tsd --zkbasedir=/hbase-unsecure --port=9999 --zkquorum=localhost:2181 --cachedir=/tmp/tsd --staticroot=build/staticroot --auto-metric --config src/opentsdb.conf
OpenTSDB的stop服务命令执行失败:
resource_management.core.exceptions.ExecutionFailed: Execution of 'pkill -TERM -P `cat /var/run/opentsdb/opentsdb.pid` >/dev/null 2>&1' returned 1.
解决方案:
修改 /var/lib/ambari-server/resources/stacks/HDP/3.0/services/OPENTSDB/package/scripts/master.py
注释掉:#Execute (format('pkill -TERM -P `cat {opentsdb_pidfile}` >/dev/null 2>&1'))
如下图:
标签: #centos7启动opentsdb