filebeat是一款轻量级的日志收集工具,可以在非JAVA环境下运行。
因此,filebeat常被用在非JAVAf的服务器上用于替代Logstash,收集日志信息。
实际上,Filebeat几乎可以起到与Logstash相同的作用,
可以将数据转发到Logstash、Redis或者是Elasticsearch中进行直接处理。
为什么要用filebeat来收集日志?为什么不直接使用lohstash收集日志?
因为logstash是jvm跑的,资源消耗比较大,启动一个logstash就需要消耗500M左右的内存
(这就是为什么logstash启动特别慢的原因)。
而filebeat只需要10M左右的内存资源。
常用的ELK日志采集方案中,大部分的做法就是将所有节点的日志内容通过filebeat发送到logstash,
lostash根据配置文件进行过滤,然后将过滤之后的文件传输到elasticsearch中,最后通过kibana展示。
filebeat结合logstash带来的好处?
1、通过logstash,具有基于磁盘的自适应缓冲系统,该系统将吸收传入的吞吐量,
从而减轻Elasticsearch持续写入数据的压力。
2、从其它数据源(例如数据库,s3对象存储或消息传递队列)中提取
3、将数据发送到多个目的地,例如S3,HDFS(hadoop分部署文件系统)或写入文件
4台机器
####ELK1##
改名
####ELK1##################
页面测试一下端口老师上课改过 nginx是8080(没记录改的过程)
配置输出流
把outputs的下面elastisearch全部注释掉 因为日志只能发送给一个 这里发送给logstash
修改为
删除下面
日志来源192.168.233.11
input {
beats { port => “5044” }
}
output {
if “nginx” in [tags] {
elasticsearch {
hosts => [“192.168.233.12:9200″,”192.168.233.13:9200”]
index => “%{[fields][service_name]}-%{+YYYY.MM.dd}”
}
}
stdout {
codec => rubydebug
}
}
#启动 filebeat
开启收集日志
nohup ./filebeat -e –c filebeat.yml > filebeat.out &
nohup 表示在后台记录执行命令的过程
./filebeat 运行文件
-e 使用标准输出的同时进行syslog文件输出
·c 指定配置文件
执行过程输出到filebeat.out这个文件当中,& 后台运行
logstash -f file_nginx.conf —path.data /opt/test1 &
这个命令将启动logstash并使用file_nginx.conf作为配置文件,–path.data参数指定了logstash的数据目录为/opt/test1。&符号表示在后台运行logstash
c测试下
在mysql 上192.168.233.21
日志目录一生成
目录
创表数据日志已生产
拖入安装包filebeat
j解压
改名
备份
开一台mysql、
– type: log
enabled: true
paths:
– /var/log/nginx/access.log
– /var/log/nginx/error.log
tags: [“nginx”]
fields:
service_name: 192.168.233.21_nginx
log_type: nginx
from: 192.168.233.21
– type: log
enabled: true
paths:
– /etc/httpd/logs/access_log
– /etc/httpd/logs/error_log
tags: [“httpd“]
fields:
service_name: 192.168.233.21_httpd
log_type: httpd
from: 192.168.233.21
– type: log
enabled: true
paths:
– /usr/local/mysql/data/mysql_general.log
tags: [“mysql“]
fields:
service_name: 192.168.233.21_mysqld
log_type: mysql
from: 192.168.233.21
在ELK1 上192.168.233.11
收日志到目录 /opt/log
先到mysql上 启动felibeat文件往loastash上发
再到elk1上
这个命令将启动logstash并使用file_nginx.conf作为配置文件,–path.data参数指定了logstash的数据目录为/opt/test2。&符号表示在后台运行logstash
优化性能:
pipeline.workers 2
该参数用于设置 Logstash 处理事件的工作线程数量。默认值是核心数。
在一个拥有两个核心的系统上,可以设置为 2,以充分利用系统资源。
pipeline.batch.size 125
该参数定义了从输入中检索事件的批量大小,然后将这批事件发送到过滤器和工作线程。
默认值是 125。你可以根据你的需求和系统性能进行调整。
pipeline.batch.delay 50
该参数定义了在轮询下一个事件之前等待的时间,以确保形成一个适当大小的事件批量。
默认值是 50 毫秒。你可以根据实际情况进行调整。
原文地址:https://blog.csdn.net/Lachewuxian/article/details/134716126
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_18379.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!