欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 培训 > ELK学习笔记(三)——使用Filebeat8.15.0收集日志

ELK学习笔记(三)——使用Filebeat8.15.0收集日志

2024/10/24 19:22:56 来源:https://blog.csdn.net/qq_37608943/article/details/141899897  浏览:    关键词:ELK学习笔记(三)——使用Filebeat8.15.0收集日志

使用Filebeat收集日志

前面教程已经把ElasticSearch和Kibana部署完毕,接着我们就要使用filebeat去收集我们的java服务日志,这里首先介绍一下ELK和EFK的区别。

一、ELK和EFK的区别

在收集和处理日志时,使用 ELK(Elasticsearch, Logstash, Kibana)和 EFK(Elasticsearch, Filebeat, Kibana)堆栈都有其独特的优势和应用场景。两者之间的主要区别在于日志收集和传输组件的选择:Logstash vs. Filebeat。下面是两者的比较和使用 Filebeat 的一些优势:

ELK(Elasticsearch, Logstash, Kibana)的优势

  1. 强大的数据处理能力
    • Logstash 拥有丰富的数据处理和过滤插件,能够处理复杂的数据转换和增强,例如解析复杂的日志格式、添加字段、重命名字段、地理定位等。
    • Logstash 支持高级的数据管道操作,如聚合、拆分、条件过滤等。
  2. 支持更多的数据源
    • Logstash 可以从各种数据源收集数据,不仅仅是日志文件,还包括数据库、消息队列、HTTP 端点等。
    • 对于需要集成来自多个不同数据源的数据环境,Logstash 提供了更灵活的选择。
  3. 灵活的插件系统
    • Logstash 提供了一个插件系统,可以轻松地添加输入、过滤和输出插件,以适应不同的应用场景。

EFK(Elasticsearch, Filebeat, Kibana)的优势

  1. 轻量级和高效
    • Filebeat 是一个轻量级的日志收集器,专门设计用于收集和转发日志。它消耗的资源比 Logstash 少,因此在性能和效率上更优,尤其适合在资源受限的环境中使用(例如 Kubernetes 环境中的容器)。
    • Filebeat 更容易配置和部署,不需要像 Logstash 那样处理复杂的配置文件和插件管理。
  2. 简单易用
    • Filebeat 的配置文件相对简单,易于维护和管理。对于基本的日志收集场景,配置成本较低。
    • Filebeat 有内置的模块(例如 systemnginxapache 等),这些模块已经预先配置好收集和解析某些常见服务的日志,减少了手动配置的工作量。
  3. 更适合 Kubernetes 环境
    • Filebeat 与 Kubernetes 原生集成得很好,支持自动发现容器日志,可以轻松将每个容器的日志收集并发送到 Elasticsearch。它能自动添加 Kubernetes 元数据(例如 pod 名称、命名空间、标签等),方便在 Kibana 中进行基于 Kubernetes 元数据的日志搜索和分析。
    • 在 Kubernetes 环境中,直接部署 Filebeat 作为 DaemonSet 可以高效收集集群中所有节点的日志。
  4. 可靠的数据传输
    • Filebeat 有内置的背压机制和可靠的传输协议(如使用 ACK 确认机制的 Elasticsearch 输出),确保日志在传输过程中不会丢失。

什么时候选择 EFK(Filebeat)

  • 资源受限的环境:如 Kubernetes 集群或需要在多台机器上部署日志采集器的环境。
  • 主要是日志收集,而不需要复杂的日志处理:如果你只需要将日志采集并发送到 Elasticsearch。
  • 希望减少复杂性和管理开销:Filebeat 更容易部署和维护。

什么时候选择 ELK(Logstash)

  • 需要复杂的日志处理和增强:如正则表达式解析、数据过滤、条件处理、多步骤处理等。
  • 日志源种类繁多:不仅是日志文件,还有其他数据源,如数据库、消息队列等。
  • 系统资源不是主要问题:在高性能服务器或数据中心环境中部署。

总之,Filebeat 在轻量、简洁、高效的场景下表现更好,而 Logstash 在需要复杂日志处理的场景下更为适用。根据你的需求选择适合的工具可以显著提高日志收集系统的效率和性能。

前面,我们已经在k8s环境中部署好了ElasticSearch和Kibana。并且我们只是简单的收集一下后端服务产生的打印日志,所以这里我选择使用filebeat去收集日志。

二、部署Filebeat服务

2.1、创建目录
mkdir -p /home/ec2-user/k8s/elk/filebeat
cd /home/ec2-user/k8s/elk/filebeat
2.2、下载filebeat-8.15.0压缩文件
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-8.15.0-linux-x86_64.tar.gz
2.3、解压
tar -zxvf filebeat-8.15.0-linux-x86_64.tar.gz
#重命名
mv filebeat-8.15.0-linux-x86_64 filebeat-8.15.0

在这里插入图片描述

2.4、配置filebeat.yml
vim filebeat.yml
# ============================== Filebeat inputs ===============================filebeat.inputs:- type: log# Unique ID among all inputs, an ID is required.id: new-erp-filestream-id# Change to true to enable this input configuration.enabled: trueencoding: utf-8paths:# 配置要收集日志的目录- /home/ec2-user/k8s/nfs/data/share/renpho-erp-dev-gateway-logs-data-erp-gateway-dev-*/gateway-logs/*.log- /home/ec2-user/k8s/nfs/data/share/renpho-erp-dev-smc-log-data-erp-smc-dev-*/smc-logs/*.log- /home/ec2-user/k8s/nfs/data/share/renpho-erp-dev-uac-log-data-erp-uac-dev-*/uac-logs/*.log#匹配日志规则:日志文件中以如下规则开头的则为一行multiline.pattern: '^\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}'multiline.negate: truemultiline.match: after#排除以.gz结尾的压缩包文件prospector.scanner.exclude_files: ['.gz$']fields:tag: erp-log#type: erp-logdata-pipeline source: common# ============================== Filebeat modules ==============================filebeat.config.modules:# Glob pattern for configuration loadingpath: ${path.config}/modules.d/*.yml# Set to true to enable config reloadingreload.enabled: false# ======================= Elasticsearch template setting =======================setup.template.settings:index.number_of_shards: 1
setup.template.name: "erp-log"
setup.template.pattern: "erp-log-*"# =================================== Kibana ===================================
setup.kibana:host: "https://192.168.6.220:30091"#可以到kibana控制台,创建一个账号username: "kibanaerp"password: "replace your password"# ================================== Outputs ===================================output.elasticsearch:# Array of hosts to connect to.hosts: ["https://192.168.6.220:30092"]protocol: "https"ssl.verification_mode: "none"# ssl.certificate_authorities: ["/home/ec2-user/k8s/elk/kibana/certs/elasticsearch-ca.pem"]# Authentication credentials - either API key or username/password.#api_key: "id:api_key"username: "elastic"password: "replace your password"#数据流index: "erp-log-%{+yyyy.MM.dd}"#索引indices:- index: "erp-logindex-%{+yyyy.MM.dd}"pipelines:#定义一个管道,用于解析自定义日志格式,稍后会在下面kibana中用到- pipeline: erp-logdata-pipelinelogging.level: debugprocessors:# 将自带的一些字段可以去除# - add_host_metadata:#     when.not.contains.tags: forwarded# - add_cloud_metadata: ~# - add_docker_metadata: ~# - add_kubernetes_metadata: ~# 在这里可以设置要去除的字段- drop_fields:# when: 可以设置去除的条件#   conditionfields: ["log","host","input","agent","ecs"]ignore_missing: false
2.5、Kibana后台创建管道pipeline

使用管理员账号elastic,登录到Kibana后台,

在这里插入图片描述

进到采集管道页面

在这里插入图片描述

创建新管道

在这里插入图片描述

按顺序依次点击下图按钮
在这里插入图片描述

添加处理器,并保存。

在这里插入图片描述

上图中第9步的值为

%{TIMESTAMP_ISO8601:log_date} %{DATA:springAppName} [%{DATA:tlog_trace_id}] %{LOGLEVEL:level} [%{DATA:thread_name}] [%{DATA:x_b3_span_id}] %{DATA:class} - %{GREEDYDATA:content}

我的项目中logback.xml中配置的的日志输出格式如下图所示,

在这里插入图片描述

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true" scanPeriod="60 seconds" debug="false"><include resource="org/springframework/boot/logging/logback/defaults.xml" /><include resource="org/springframework/boot/logging/logback/console-appender.xml" /><conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter" /><!-- 配合apollo app.id, 因为log日志启动先于 apollo的启动,所以用这样的方式进行命名区别 --><springProperty name="springAppName" scope="context" source="spring.application.name" /><!-- 日志存放路径 --><property name="logPath" value="/home/erp/logs/${springAppName}"/><!-- 日志输出格式 --><property name="LogPatternConsole" value="%d{yyyy-MM-dd HH:mm:ss.SSS} %clr(${springAppName}) %clr(${PID:- }){magenta} %clr(-%5p [%X{tlogTraceId:-},%X{X-B3-SpanId:-}]) %clr(-){faint} %clr([%t]){faint} %clr(%logger){cyan} %clr(:){faint} %msg%n" /><property name="LogPattern" value="%d{yyyy-MM-dd HH:mm:ss.SSS} ${springAppName} [%X{tlogTraceId:-}] %level{5} [%thread] [%X{X-B3-SpanId:-}] %logger{20} - %msg%n"/><property name="logfile" value="${LOG_FILE:-${logPath}/info.log}" /><property name="errorLogfile" value="${LOG_FILE:-${logPath}/error.log}" /><logger name="org.apache.catalina.startup.DigesterFactory" level="ERROR" /><logger name="org.apache.sshd.common.util.SecurityUtils" level="WARN" /><logger name="org.apache.tomcat.util.net.NioSelectorPool" level="WARN" /><logger name="org.crsh.plugin" level="WARN" /><logger name="org.crsh.ssh" level="WARN" /><logger name="com.trace.ssm" level="INFO" /><!-- 系统模块日志级别控制  --><logger name="com.renpho" level="info"/><!-- Spring日志级别控制  --><logger name="org.springframework" level="warn"/><appender name="Console" class="ch.qos.logback.core.ConsoleAppender"><encoder><pattern>${LogPatternConsole}</pattern><charset>utf8</charset></encoder></appender><appender name="InfoLogFile" class="ch.qos.logback.core.rolling.RollingFileAppender"><encoder><pattern>${LogPattern}</pattern><charset>utf8</charset></encoder><filter class="ch.qos.logback.classic.filter.LevelFilter"><!-- 过滤的级别 --><level>INFO</level><!-- 匹配时的操作:接收(记录) --><onMatch>ACCEPT</onMatch><!-- 不匹配时的操作:拒绝(不记录) --><onMismatch>DENY</onMismatch></filter><file>${logfile}</file><!-- 循环政策:基于时间创建日志文件 --><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${logPath}/info.%d{yyyy-MM-dd}.%i.log.gz</fileNamePattern><!-- 日志最大的历史 30天 --><maxHistory>30</maxHistory><timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"><!-- maxFileSize:这是当前活动日志文件的大小,自动分割日志,默认值是10MB,测试时可改成1KB看效果 --><maxFileSize>50MB</maxFileSize></timeBasedFileNamingAndTriggeringPolicy></rollingPolicy></appender><!-- error的日志 --><appender name="ErrorLogFile" class="ch.qos.logback.core.rolling.RollingFileAppender"><encoder><pattern>${LogPattern}</pattern><charset>utf8</charset></encoder><filter class="ch.qos.logback.classic.filter.LevelFilter"><!-- 过滤的级别 --><level>ERROR</level><!-- 匹配时的操作:接收(记录) --><onMatch>ACCEPT</onMatch><!-- 不匹配时的操作:拒绝(不记录) --><onMismatch>DENY</onMismatch></filter><file>${errorLogfile}</file><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${logPath}/error.%d{yyyy-MM-dd}.%i.log.gz</fileNamePattern><maxHistory>30</maxHistory><timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"><maxFileSize>50MB</maxFileSize></timeBasedFileNamingAndTriggeringPolicy></rollingPolicy></appender><appender name="AsyncRollingLogFile" class="ch.qos.logback.classic.AsyncAppender"><!-- 异步日志 https://blog.csdn.net/u011943534/article/details/119427147 --><discardingThreshold>0</discardingThreshold><queueSize>12345</queueSize><appender-ref ref="InfoLogFile" /></appender><appender name="AsyncErrorLogFile" class="ch.qos.logback.classic.AsyncAppender"><!-- 本文设置为0说明永远不会丢弃日志level --><discardingThreshold>0</discardingThreshold><queueSize>12345</queueSize><appender-ref ref="ErrorLogFile" /></appender><root level="INFO"><appender-ref ref="Console" /><appender-ref ref="AsyncRollingLogFile" /><appender-ref ref="AsyncErrorLogFile" /></root><jmxConfigurator />
</configuration>

三、启动Filebeat

cd /home/ec2-user/k8s/elk/filebeat-8.15.0
#启动filebeat
sudo nohup ./filebeat -e -c filebeat.yml > /dev/null 2>&1 &

四、查看索引

在这里插入图片描述

至此,filebeat部署成功!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com