IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> filebeat+logstash+elasticsearch+kibana=elk -> 正文阅读

[大数据]filebeat+logstash+elasticsearch+kibana=elk

背景:
在开发调试阶段,发现bug后开始在服务器上查找日志,但是这个过程真的好痛苦.
一种方式是直接在服务器上tail -f 或者tail -n 直接查看,但是日志太多,不容易发现问题
另一种方式导出最近的日志到本地,打开本地编辑器一点一点查看
但是两种方式都很麻烦,有没有轻松一点的方法呢?
在这个开源的时代,一直听说elk架构,那就搭建这个日志系统,感受下这个系统的魅力吧

基本服务介绍

  • 什么是elasticsearch
    Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎, 一切设计都是为了提高搜索的性能
 1. 分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
 2. 实时分析的分布式搜索引擎。
 3. 可以扩展到上百台服务器,处理PB级别的结构化或非结构化数据。
  • 什么是Filebeat
    go语言开发的,一个轻量级的日志收集的工具,消耗更少的cpu 和 内存。

  • 什么是Logstash
    Logstash 是一个轻量级、开源的服务器端数据处理管道,允许您从各种来源收集数据,进行动态转换,并将数据发送到您希望的目标
    但是logstash java开发,依赖jvm,相对filebeat还是比较消耗服务器资源

主要工作过程是是 input->filter->output 
获取输入, 过滤解析, 重新输出,配置比较简单
  • 什么是Kibana
Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。
可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。
可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。
  • 怎么使用?
    因为logstash服务比较重,所以我们主要是通过filebeat来采集日志信息,都交给logstash,通过logstash过滤输出到elasticsearch中.
    建议的服务搭建
1. 独立的es集群
2. 每个服务器上安装filebeat进行日志采集
3. 单独的logstash服务,来接收filebeat日志,过滤并输出到es中
4. 单独的kibana服务,来做数据段web页面展示

来贴张常用的架构图
在这里插入图片描述
安装服务

官网 https://www.elastic.co/cn/downloads/
首先我选择安装目录为

mkdir -p /usr/local/elk

服务器需要先安装 jdk环境, 版本jdk1.8 以上

1、下载安装 elasticsearch
下载elasticsearch 下载安装包,并解压

cd /usr/local/elk
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.0-linux-x86_64.tar.gz
tar xvf elasticsearch-7.6.0-linux-x86_64.tar.gz

使用默认配置,启动服务

cd /usr/local/elk/elasticsearch-7.6.0/bin
./elasticsearch -d

好吧,出师不利,刚启动遇到第一个问题,elasticsearch不允许root用户启动(后面几个服务也是不允许),所以我先创建elstic用户和组,并设置elk目录属于elstic用户组

错误显示为

java.lang.RuntimeException: can not run elasticsearch as root

解决方式

    -创建elastic用户
	adduser elastic
	-设置密码
	passwd elastic
	-修改目录权限
	chown -R  elastic /usr/local/elk
	-切换用户
	su elastic

然后成功启动
可以访问elsticsearch接口试下
在这里插入图片描述
2、下载安装启动kibana

下载并解压

cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.6.0-linux-x86_64.tar.gz
tar xvf kibana-7.6.0-linux-x86_64.tar.gz

修改配置,使其能够外网访问,并且配置为中文版

#vim /usr/local/elk/kibana-7.6.0-linux-x86_64/config/kibana.xml

server.port: 5601 #开启默认端口5601
server.host: “10.254.254.200” #kibana站点IP
elasticsearch.url: http://10.254.254.200:9200 #只想ES服务所在IP Port
kibana.index: “.kibana”
i18n.locale: "zh-CN"

启动kibana

nohup /usr/local/elk/kibana-7.6.0-linux-x86_64/bin/kibana -c /usr/local/elk/kibana-7.6.0-linux-x86_64/config/kibana.yml &

然后浏览器访问 外网ip:5601,很开心进入管理页面,并且是中文版
在这里插入图片描述
3 、客户端下载安装 filebeat

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.0-linux-x86_64.tar.gz
tar xvf filebeat-7.6.0-linux-x86_64.tar.gz

这里我们重点讲下filebeat的配置
通用设计是 filebeat读取日志,输出到logstash,经过logstash解析后,输出到 elasticsearch

  • 问题1.增么配置filebeat读取日志呢?
    我们打开filebeat.xml,进行如下配置
# filebeat 输入标识
filebeat.inputs:

# Each - is an input. Most options can be set at the input level, so
# you can use different inputs for various configurations.
# Below are the input specific configurations.
# 定义输入类型,为日志类型
- type: log
  # Change to true to enable this input configuration.
  # 开启配置
  enabled: true

  # Paths that should be crawled and fetched. Glob based paths.
  # 读取日志文件罗京
  paths:
    - /data/logs/cheetahcafe_server/test/info.log
    - # 增加自定义字段
  fields:
     log_name: cheetahcafe-test
  tail_files: true
    #- c:\programdata\elasticsearch\logs\*
- type: log
  enabled: true
  paths:
    - /data/logs/cheetahcafe_server/dev/info.log
  fields:
      log_name: cheetahcafe-dev
  tail_files: true
  # Exclude lines. A list of regular expressions to match. It drops the lines that are
  # matching any regular expression from the list.
  #exclude_lines: ['^DBG']

实例:
在这里插入图片描述
上面配置可以看到,我们配置了多个日志输入,如果有多个服务日志需要监控的化,可以采用上面这种配置,并且设置 fields字段,进行区分

  • 问题2 怎么输出到 logstash中?
    默认配置文件很给力,都有示例,太好用了
    注释掉elasticsearch output段:
    在这里插入图片描述
    修改Logstash output段;
#----------------------------- Logstash output --------------------------------
output.logstash:
  # The Logstash hosts
  # Logstash 主机地址,我们默认本机的5044端口
  hosts: ["logstashIP:5044"]

  # Optional SSL. By default is off. 开启ssl
  # List of root certificates for HTTPS server verifications
  #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]

  # Certificate for SSL client authentication
  #ssl.certificate: "/etc/pki/client/cert.pem"

  # Client Certificate Key
  #ssl.key: "/etc/pki/client/cert.key"

配置后可以进行启动filebeat

cd /usr/local/elk/filebeat-7.6.0-linux-x86_64
nohup ./filebeat -c filebeat.yml &

4、 下载安装 logstash

wget https://artifacts.elastic.co/downloads/logstash/logstash-7.6.0.tar.gz
tar xvf logstash-7.6.0.tar.gz

我们同样要考虑下面两个问题来进行配置

  • 1.我们怎么读取日志输入?
    通过filebeat把日志输入到logstash中,我们打开配置文件,进行下面配置
cd /usr/local/elk/logstash-7.6.0/config
cp logstash-sample.conf logstash.conf
vim logstash.conf
配置日志输入,beats配置
input {
  beats {
  	# 5044是logstash的数据输入端口
    port => 5044
    # 是否开启ssl加密,否
    ssl => false
  }
}
  • 2.我们输出到哪里?
    我们日志输出到elasticsearch中,上面说到此时有两个filebeats输入,我们怎么进行区分呢?
    此时 filebeats中的fields字段此时就有很大用处了
输出配置,输出到elasticsearch中
output {
  elasticsearch {
    # es的服务和端口
    hosts => ["http://localhost:9200"]
    # 输出到es中索引的创建格式,此时注意  {[fields][log_name]} ,这里使用了filebeats中配置的自定义属性进行区分索引
    index => "%{[fields][log_name]}-%{+YYYY.MM.dd}"
    #index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    #user => "elastic"
    #password => "changeme"
  }
}

这样我们很轻松就配置好了 logstash,下面进行启动服务

cd /usr/local/elk/logstash-7.6.0/bin
nohup ./logstash -f ../config/logstash-es.conf &

通过上面操作,我们就成功配置和启动我们的elk日志系统了
下面开心的到kibana中使用下吧

5、使用kibana
最后一步,我们来看下怎么使用吧? 浏览器访问 ip+端口,打开面板
创建索引模式
首先 我们先创建个索引模式,为了能够简单对统一索引进行合并展示
点击 管理 -> 索引模式,然后创建索引模式

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
因为我们的索引是根据项目并且按天进行创建的,所以可以按照自己公司项目名来创建索引模式就行了, 很简单…

  • 查看日志信息
    创建好索引模式,我们就可以在 侧边栏的 “发现” 中找到想要查看的数据了, 默认查看的字段比较多,但是基本都是我们不关系的,
    可以在可用字段中选择 message,只展示时间和message 就可以了,下面是展示效果
    在这里插入图片描述
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-05 17:25:10  更:2021-08-05 17:25:53 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 4:59:43-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码