当前位置: 首页>移动开发>正文

2.Logstash介绍

2.1 Logstash简介

2.1.1 Logstash是什么?

  • Logstash是一个开源数据收集引擎,具有实时管道功能。Logstash可以动态地将来自不同数据源的数据统一起来,并将数据标准化到你所选择的目的地
  • 2013 年,Logstash 被 Elasticsearch 公司收购,ELK stack 正式成为官方用语


    2.Logstash介绍,第1张

2.1.2 Logstash的作用

  • Logstash是一个开源数据收集引擎,具有实时管道功能。


    2.Logstash介绍,第2张

2.1.3 Logstash的输入源

  • 能够以连续的流式传输方式,轻松地从日志、指标、Web 应用、数据存储以及各种AWS服务采集数据。


    2.Logstash介绍,第3张

2.1.4 Logstash的输入—日志和指标

  • 处理所有类型的日志数据
    • 很容易摄取大量的web日志(如Apache)和应用程序日志(如Java的log4j)
    • 捕获许多其他日志格式,如syslog、网络和防火墙日志等等
  • 从Ganglia、collectd、NetFlow、JMX收集指标,和许多其他基础设施,以及TCP和UDP上的应用程序平台

2.1.5 Logstash的输入—网络

  • 将HTTP求转换为事件
    • 使用像Twitter这样的web服务防火墙进行社交情绪分析
    • 对GitHub、HipChat、JIRA和无数其他应用程序的Webhook支持
    • 支持许多监控用例
  • 根据需要通过轮询HTTP端点创建事件
    • 普遍地从web应用程序接口捕获健康、性能、指标和其他类型的数据
    • 更适合于轮询控制而不是接收的场景

2.1.6 Logstash的输入—数据和流

  • 更好地理解来自任何关系数据库或具有JDBC接口的NoSQL存储的数据
  • 统一不同的数据流,如Apache Kafka、RabbitMQ和Amazon SQS
  • Logstash是一个常见的事件收集主干,用于从移动设备发送数据到智能住宅、连接的车辆、医疗传感器和许多其他行业特定的应用程序

2.1.7 Logstash的过滤功能

  • 过滤器是Logstash管道中的中间处理设备,常用过滤器包括:
    • grok:解析和构造任意文本,Grok是目前Logstash中解析非结构化日志数据到结构化和可查询数据的最佳方式,使用内置的120种模式
    • mutate:对事件字段执行一般的转换,你可以重命名、删除、替换和修改事件中的字段。
    • drop:完全删除事件,例如debug事件
    • clone:复制事件,可能添加或删除字段
    • geoip:添加关于IP地址地理位置的信息

2.1.8 Logstash多种输出

  • 将数据路由到最重要的地方,通过存储、分析和对数据执行特定的操作:
    • 分析:Elasticsearch、数据存储,如MongoDB。
    • 归档:HDFS、S3。
    • 监控:Nagios、Ganglia、Zabbix、Graphite、Datadog、CloudWatch。
    • 提醒:使用Elasticsearch Watcher、Email、IRC、SNS。
2.Logstash介绍,第4张

2.1.9 Logstash的管道

  • Logstash事件处理管道有三个阶段:输入→过滤器→输出


    2.Logstash介绍,第5张

2.1.10 Logstash的角色

  • Logstash 社区通常习惯用shipper,broker 和 indexer 来描述数据流中不同进程各自的角色。


    2.Logstash介绍,第6张

大数据视频推荐:
腾讯课堂
CSDN
ELK入门精讲
AIOps智能运维实战
ELK7 stack开发运维
大数据语音推荐:
ELK7 stack开发运维
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通


https://www.xamrdz.com/mobile/4fe1997467.html

相关文章: