[关闭]
@muyanfeixiang 2016-12-21T18:10:54.000000Z 字数 5265 阅读 5520

ELK+FileBeat+Log4Net搭建日志系统

ELK Log4Net


项目中之前都是采用数据库来记录日志,虽然记录还算挺方便,但是每次都要到数据库来查询,如果日志在单独的数据库还好,只是有点麻烦。如果记录的日志数据库和生产正式库在一起,不仅会影响生产库的正常使用,也会带来安全隐患。
项目早期没有统一规划,也是时间仓促,没有做好日志的规划,所有日志都记录到数据库中。的确也遇到了性能问题,因此在了解ELK的基础上,使用其作为日志采集、处理和检索的几本框架。

大体框架

日志数据流如下,应用将日志落地在本地文件,部署在每台服务器上的FileBeat负责收集日志,然后将日志发送给LogStash;LogStash将日志进行处理之后,比如parse等;然后将处理后的Json对象传递给ElasticSearch,进行落地并进行索引处理;最后通过Kibana来提供web界面,来查看日志等。因为ES是基于Lucene的,所以Kibana支持Lucene查询语法。

image_1b4g890586hv1ag91ks3abv1i62m.png-24.8kB

对于日志数据流特别大的情况,LogStash会造成拥堵,这个时候可以使用消息队列来进行缓冲。同时,日志一旦进过LogStash之后,会不方面一些流处理程序来读取。这个时候使用kafka就比较好了,因为kafka是将消息持久化在本地,流处理应用可以从消息的offset初始的地方来读取。加入kafka的后的流程如下:
image_1b4g8qjmjegcnf614pqe61kbf13.png-33.1kB

配置过程

Log4Net配置

首先,最基本的引用Log4Net程序集,补多少。
其次,要在项目的AssemblyInfo.cs添加如下代码,这样配置才能给启作用。

[assembly: log4net.Config.XmlConfigurator(Watch = true)]

最后,也是最重要的就是在web.config(或app.config)中配置了。
在configSections中添加如下代码

<configSections>
<section name="log4net" type="log4net.Config.Log4NetConfigurationSectionHandler, log4net" />
</configSections>

添加log4net节点

  1. <log4net>
  2. <root>
  3. <level value="ALL" />
  4. <appender-ref ref="rollingFile" />
  5. <appender-ref ref="ErrorRollingFile" />
  6. </root>
  7. <appender name="rollingFile" type="log4net.Appender.RollingFileAppender,log4net">
  8. <filter type="log4net.Filter.LevelRangeFilter">
  9. <levelMin value="DEBUG" />
  10. <levelMax value="WARN" />
  11. </filter>
  12. <!--日志的路径-->
  13. <param name="File" type="" value="D://WebLog//Log4NetTest.App//" />
  14. <param name="Encoding" value="UTF-8"/>
  15. <!--是否覆盖,默认是追加true-->
  16. <param name="AppendToFile" value="true" />
  17. <param name="RollingStyle" value="Date" />
  18. <!--文件名称-->
  19. <param name="DatePattern" value="yyyy-MM-dd'.Debug.log'" />
  20. <!--设置无限备份=-1 ,最大备份数为1000-->
  21. <param name="MaxSizeRollBackups" value="1000" />
  22. <!--每个文件的大小-->
  23. <param name="MaximumFileSize" value="102KB" />
  24. <!--名称是否可以更改为false为可以更改-->
  25. <param name="StaticLogFileName" value="false" />
  26. <layout type="log4net.Layout.PatternLayout,log4net">
  27. <!--输出格式-->
  28. <param name="ConversionPattern" value="[%date] [%thread] %-5level Log4NetTest %logger %method [%message%exception]%n" />
  29. </layout>
  30. </appender>
  31. <appender name="ErrorRollingFile" type="log4net.Appender.RollingFileAppender,log4net">
  32. <filter type="log4net.Filter.LevelRangeFilter">
  33. <levelMin value="ERROR" />
  34. <levelMax value="FATAL" />
  35. </filter>
  36. <!--日志的路径-->
  37. <param name="File" type="" value="D://WebLog//Log4NetTest.App//" />
  38. <param name="Encoding" value="UTF-8"/>
  39. <!--是否覆盖,默认是追加true-->
  40. <param name="AppendToFile" value="true" />
  41. <param name="RollingStyle" value="Date" />
  42. <!--文件名称-->
  43. <param name="DatePattern" value="yyyy-MM-dd'.Error.log'" />
  44. <!--设置无限备份=-1 ,最大备份数为1000-->
  45. <param name="MaxSizeRollBackups" value="1000" />
  46. <!--每个文件的大小-->
  47. <param name="MaximumFileSize" value="102KB" />
  48. <!--名称是否可以更改为false为可以更改-->
  49. <param name="StaticLogFileName" value="false" />
  50. <layout type="log4net.Layout.PatternLayout,log4net">
  51. <!--输出格式-->
  52. <param name="ConversionPattern" value="[%date] [%thread] %-5level Log4NetTest %l [%message%n%exception]%n"/>
  53. </layout>
  54. </appender>
  55. </log4net>

针对两种不同类型的应用日志,分别使用两种pattern,也分别记录到Debug.lg和Error.log文件中。

分两类的主要原因就在于是否记录了出错位置,这个是比较耗性能的操作,所以对于常规的Debug,Info,Warn可以不记录位置。
除此之外,没有记录host,因为FileBeat在采集日志时候会自动记录hostname。这样log4net的基本配置就完成了。

FileBeat配置

只需简单的配置就即可使用,当然也可以配置的很复杂。配置文件filebeat.yml
一个input_type代表一个输入源,可选值只有log和stdin。
paths是日志采集路径,可以使用通配符。
document_type是可以用来表示日志类型。输入到logstash中对应[type],可以据此使用不同grok语法来parse,这里分为errorLog和debugLog。

  1. multiline.pattern: '^\['
  2. multiline.negate: true
  3. multiline.match: after

上面这三个使用了将换行的日志或异常信息聚合为一个事件,因为默认FileBeat是按行来读取日志,然后传输给LogStash,如果没这个设置,就会造成日志分割为多个事件。
output.logstash就是输出的目标了。
然后直接运行filebeat.exe即可启动。当然也可以以服务方式启动。

  1. filebeat.prospectors:
  2. - input_type: log
  3. # Paths that should be crawled and fetched. Glob based paths.
  4. paths:
  5. #- /var/log/*.log
  6. - D:\WebLog\*\*.Error.log
  7. document_type: errorLog
  8. multiline.pattern: '^\['
  9. multiline.negate: true
  10. multiline.match: after
  11. - input_type: log
  12. # Paths that should be crawled and fetched. Glob based paths.
  13. paths:
  14. #- /var/log/*.log
  15. - D:\WebLog\*\*.Debug.log
  16. document_type: debugLog
  17. #----------------------------- Logstash output --------------------------------
  18. output.logstash:
  19. # The Logstash hosts
  20. hosts: ["localhost:5044"]

LogStash配置

在config文件夹添加配置文件first-pipeline.conf。

  1. input {
  2. beats {
  3. port => "5044"
  4. }
  5. }
  6. # The filter part of this file is commented out to indicate that it is
  7. # optional.
  8. filter {
  9. if [type] == "debugLog" {
  10. grok {
  11. match => {
  12. "message" => "\[(?<datetime>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2},\d{3})\]\s+\[(?<thread>.*)\]\s+(?<level>\w*)\s+(?<appname>\S*)\s+(?<class>\S*)\s+(?<method>\S*)\s+\[(?<message>.*)\]\s*"
  13. }
  14. overwrite => ["message"]
  15. }
  16. }
  17. if [type] == "errorLog" {
  18. grok {
  19. match => {
  20. "message" => "\[(?<datetime>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2},\d{3})\]\s+\[(?<thread>.*)\]\s+(?<level>\w*)\s+(?<appname>\S*)\s+(?<location>\S*)\s+\[(?<message>.*)\]\s*"
  21. }
  22. overwrite => ["message"]
  23. }
  24. }
  25. }
  26. output {
  27. elasticsearch { hosts => ["localhost:9200"] }
  28. stdout { codec => rubydebug }
  29. }

ElasticSearch配置

默认不需要配置,监听9200端口。直接运行即可

Kibana配置

elasticsearch.url: "http://localhost:9200"
默认连接es地址,如果本机测试无需修改。正式环境中连接到对应服务器就好。
server.port: 5601
监听端口5601,可修改到合适的端口。

然后直接运行就可启动。
初次进入要指定index pattern。一般默认使用如下配置即可。
image_1b4gde7o71j909sp4hda1rs2p1g.png-84.2kB

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注