分布式日志收集(ELK)
ELK简介:
ELK=Elasticsearch+ Logstash + Kibana,是同一家公司开发的3个开源工具,可组合起来搭建海量日志分析平台,目前很多公司都在使用这种方式搭建日志分析平台进行大数据分析。 参考:
Logstash介绍:
传统日志收集存在的问题:
传统日志收集一般都是用log4j,slf4j,logback等一些日志插件,帮我们做日志存储并保存到本地,可配置按每天存储或指定日志文件大小等一些功能。在单体应用下这样做或许没啥问题,但是当做了集群或者是分布式系统中问题一下就暴露出来了。 例如:当系统出现异常我们需要查询某个日志时,我们需要这样做:
- 先定位到某个服务,确定该日志是哪个服务产生的。
- 由于服务做了集群会自动负载均衡,我们不知道该日志在哪个服务节点(实例)上,需要依次登录到每个节点的服务器进行排查,当服务节点很多时可想而知这样的工作量是巨大的;而且日志文件一般很大查询相率也不高。
而ELK就可以帮我们解决这个痛点,Logstath将各服务节点的日志收集起来并集中存储到ES,ES强大的搜索功能可以帮我们实现快速查询,我们只需要利用Kibana可视化界面进行查询操作即可展示结果。
ELK日志收集原理图解:
注:Logstash三个核心功能Input(收集读取日志)、Filter(过滤日志信息)、Output(将日志存储到ES)。 在实际应用中,还需要引入消息队列如Kafka,后面在介绍。
ELK环境搭建
搭建顺序为Elasticsearch、Logstash,Kibana只是个图形化界面先搭后搭都不影响。
1. 安装ES与Kibana并启动 关于ES与Kibana的安装这里不赘述了,请参考:
2. 安装Logstash
-
下载安装包: wget https://artifacts.elastic.co/downloads/logstash/logstash-6.4.3.tar.gz 解压:tar -zcvf logstash-6.4.3.tar.gz 在Logstash的config目录下放入myservice.conf文件(见下) 启动:./logstash -f myservice.conf #进入logstash的bin目录下,启动时指定配置文件
myservice.conf文件内容如下:
input{ #从文件读取日志信息输送到控制台 path:这里测试ES的日志收集,就不单独搭建服务了 file{ # 要读取的日志文件,还可以是Kafk、数据库、MongoDB、Redis... path => "/usr/local/elasticsearch-6.4.3/1ogs/myes.1og" codec => "json" # 以JSON格式读取日志 type => "elasticsearch" # 索引类型,可自定义 如:order-service start_position=>"beginning" } } # filter{ # # } output{ # 标准输出,写入ES # stdout{ } # 输出进行格式化,采用Rulby库来解析日 stdout{ codec => rubydebug } elasticsearch { # hosts:配置ES服务列表地址 hosts => ["192.168.2.101:9200"] #index:根据每天日期创建索引 格式:es-YYYY.MM.dd 默认索引类型:doc index => "es-%{+YYYY.MM.dd}" } }
3. 测试是否成功 启动后我们查看到Logstash日志输出如下JSON字符串即表示成功: 4. 利用Kibana的DevTools进行查询(常用) 浏览器访问Kibana地址:http://192.168.2.101:5601
测试命令:
#### 例如今天产生的索引名为: es-2019.10.10 ### 查看文档映射 GET es-2019.10.10/_mapping ### 所有字段message中匹配node-0的日志 GET es-2019.10.10/_search { "query": { "match": { "message": "node-0" } } }
5. 可视化界面查询 第一次进入Discover需先创建一个 es*,表示索引名为es开始的
ELK初体验就到这里了,后面将介绍ELK+Kafka实现分布式系统日志收集