龙空技术网

elk日志管理-让问题定位不再繁琐

技术人干技术活 496

前言:

今天姐妹们对“elk查询日志”大约比较珍视,小伙伴们都需要了解一些“elk查询日志”的相关内容。那么小编也在网摘上汇集了一些对于“elk查询日志””的相关文章,希望同学们能喜欢,你们快快来了解一下吧!

一、elasticsearch 集群安装

ELK+Filebeat流程:

Filebeat->Logstash->(Elasticsearch<->Kibana)

Elasticsearch: 能对大容量的数据进行接近实时的存储,搜索和分析操作。

Logstash: 数据收集引擎,它支持动态的的从各种数据源获取数据,并对数据进行过滤,分析,丰富,统一格式等操作,然后存储到用户指定的位置。

Kibana: 数据分析与可视化平台,对Elasticsearch存储的数据进行可视化分析,通过表格的形式展现出来。

Filebeat: 轻量级的开源日志文件数据搜集器。通常在需要采集数据的客户端安装Filebeat,并指定目录与日志格式,Filebeat就能快速收集数据,并发送给logstash进行解析,或是直接发给Elasticsearch存储

1、添加es用户&目录

root用户建议不直接启动es

useradd es

mkdir -p /data/elk/es/data

mkdir -p /data/elk/es/logs

chown es:es -R /data/elk/es

2、设置环境变量

vi /etc/security/limits.conf

* soft  nofile 65536* hard  nofile 65536* soft  nproc  4096* hard  nproc  4096

vi /etc/sysctl.conf

vm.max_map_count=655360

配置生效

sysctl -p

3、jdk安装4、上传安装包

上传安装包 elasticsearch-6.3.0.tar.gz to 到目录/opt

5、解压安装包

tar -zxvf elasticsearch-6.3.0.tar.gz

6、目录赋权

chown es:es -R elasticsearch-6.3.0

7、配置文件

cd /opt/elasticsearch-6.3.0/config

vim elasticsearch.yml

cluster.name: es-log #集群名称 node.name: "node-1" #该节点名称path.data: /data/elk/es/data #数据存储路径 path.logs: /data/elk/es/logs #日志文件路径 network.host: 192.168.2.129  #绑定监听IP,一般为本机 http.port: 9200 #es服务端口号  discovery.zen.ping.unicast.hosts: ["192.168.2.129","192.168.2.130"] #配置自动发现node.master: true #该节点为主节点,默认集群中第一台服务器为master,如果这台机器停止会重新选举masternode.data: true #允许该节点存储数据(默认开启)
8、启动es

su es

cd /opt/elasticsearch-6.3.0/bin

./elasticsearch -d

9、验证

10、es集群部署

重复上述步骤至相应服务器,修改相应配置文件的node.namenetwork.hosts

11、查看集群健康

二、Kibana安装

此次安装在es主服务器上

1、上传安装包

上传安装包kibana-6.3.0-linux-x86_64.tar.gz 到目录/opt

2、解压安装包

tar -xzvf kibana-6.3.0-linux-x86_64.tar.gz

3、创建elk用户&目录

useradd elk

mkdir -p /data/elk/kibana/pid

mkdir -p /data/elk/kibana/logs

chown elk:elk -R kibana-6.3.0-linux-x86_64

chown elk:elk -R /data/elk/kibana

4、配置文件

cd /opt/kibana-6.3.0-linux-x86_64/config

vim kibana.yml

server.port: 5601 #默认端口是5601,server.host: "ip" #本机地址,访问此地址+端口显示kibana界面server.name: "kibana" #elasticsearch.url: ";  #es集群地址和端口pid.file: /data/elk/kibana/pid/kibana.pidlogging.dest: /data/elk/kibana/logs/stdout.logi18n.defaultLocale: "zh-CN"
5、启动kibana

su elk

cd /opt/kibana-6.3.0-linux-x86_64/bin

nohup ./kibana &

6、界面验证

如下网址能正常访问即可

三、Logstash安装1、上传安装包

上传安装包 logstash-6.3.0.tar.gz 到目录 /opt

2、解压安装包

tar -xzvf logstash-6.3.0.tar.gz

3、创建目录&赋权

chown elk:elk -R logstash-6.3.0

cd /opt/logstash-6.3.0/config

mkdir conf.d

4、配置文件

vim logstash.yml

path.config: /opt/elk/logstash-6.3.0/config/conf.d

vim conf.d/logback-2-es.conf

input {  beats {    port => 5044  }}output {  elasticsearch {    hosts => [";,";]    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"  }}
5、配置文件赋权

chown elk:elk -R conf.d

6、启动logstash

su elk

cd /opt/logstash-6.3.0/bin

nohup ./logstash -f …/config/conf.d/logback-2-es.conf &

7、验证

ps -ef |grep logstash

四、安装 filebeat

登陆需要拉取日志文件的服务器

1、上传安装包

上传安装包 filebeat-6.3.0-linux-x86_64.tar.gz 到目录 /opt

2、解压安装包

tar -xzvf filebeat-6.3.0-linux-x86_64.tar.gz

3、目录赋权

chown elk:elk -R filebeat-6.3.0-linux-x86_64

4、配置文件

cd /opt/filebeat-6.3.0-linux-x86_64

vim filebeat.yml

- type: log  enabled: true  paths:    - /var/log/*.log #监控日志  fields: #新增标签,用于分类展示	hospital: clsyy 	logtype: mainlogmultiline.pattern: ^(\d{4}\d{2}\d{2})\s(\d{2}:\d{2}:\d{2}) #配置时间格式为yyyymmdd hh:mi:ssmultiline.negate: truemultiline.match: after#output.elasticsearch:  # Array of hosts to connect to.  # hosts: ["localhost:9200"]  output.logstash:  # The Logstash hosts  hosts: ["ip:5044"] #需要配置logstash所在服务器IP  
5、启动

su elk

cd /opt/filebeat-6.3.0-linux-x86_64

nohup ./filebeat -c ./filebeat.yml &

五、kibana前端使用1、配置添加index

如下图在kibana的management菜单中配置index,填写索引名

2、配置时间索引

选择时间索引@timestampa

3、index配置完成

查看如下界面

4、日志数据浏览检索

在discover菜单中,可以预览查询数据,可以通过添加过滤条件来筛选数据

五、配置说明

1、scan_frequency:1s #小于1s可能导致filebeat在频繁的循环中扫描磁盘

如果喜欢我的文章,请关注我哦。后续会不断为大家提供干货分享。请及时查收。

标签: #elk查询日志