详情页标题前

阿里云日志服务SLSLogstash消费-云淘科技

详情页1

日志服务支持通过Logstash消费数据,您可以通过配置日志服务的Input插件对接Logstash获取日志服务中的数据并写入到其他系统中,例如Kafka、HDFS等。

功能特性

  • 分布式协同消费:可配置多台服务器同时消费某一个Logstore

  • 高性能:基于Java ConsumerGroup实现,单核消费速度可达20 MB/s(压缩前)。

  • 高可靠性:消费进度保存到服务端,异常恢复后会从上一次消费的Checkpoint处自动恢复消费。

  • 自动负载均衡:根据消费者数量自动分配Shard,消费者增加或减少后会自动负载均衡。

操作步骤

  1. 安装Logstash。

    1. 下载安装包。

    2. 解压安装包到指定目录。

  2. 安装input插件。

    1. 下载input插件。下载地址为logstash-input-sls。

    2. 安装input插件。

      logstash-plugin install logstash-input-sls

      说明

      插件安装失败原因及解决方案,请参见插件安装配置。

  3. 启动Logstash。

    logstash -f logstash.conf

    配置参数如下表所示。

    参数

    类型

    是否必须

    说明

    endpoint

    string

    日志服务Project所在的Endpoint。更多信息,请参见服务入口。

    access_id

    string

    阿里云AccessKey ID,需要具备消费组相关权限。更多信息,请参见指定Logstore的消费权限。

    access_key

    string

    阿里云AccessKey Secret,需要具备消费组相关权限。更多信息,请参见指定Logstore的消费权限。

    project

    string

    日志服务Project名称

    logstore

    string

    日志服务Logstore名称。

    consumer_group

    string

    消费组名称。

    consumer_name

    string

    消费者名称,同一个消费组中的消费者名称不能重复。

    position

    string

    消费开始位置。

    • begin:从Logstore写入的第一条数据开始消费。

    • end:从当前时间点开始消费。

    • yyyy-MM-dd HH:mm:ss:从指定时间点开始消费。

    checkpoint_second

    number

    每隔几秒Checkpoint一次,建议10秒~60秒,不能低于10秒,默认为30秒。

    include_meta

    boolean

    数据是否包含Meta,Meta包括source、time、tag、topic,默认为true。

    consumer_name_with_ip

    boolean

    消费者名称是否包含IP地址,默认为true,分布式协同消费下必须设置为true。

示例

配置Logstash消费某一个Logstore并将数据打印到标准输出,示例如下:

重要

强烈建议不要把AccessKey ID和AccessKey Secret保存到工程代码里,否则可能导致AccessKey泄露,威胁您账号下所有资源的安全。请配置环境变量ALIBABA_CLOUD_ACCESS_KEY_IDALIBABA_CLOUD_ACCESS_KEY_SECRET。具体操作,请参见配置环境变量。

input {
  logservice{
  endpoint => "your project endpoint"
  // 本示例从环境变量中获取AccessKey ID和AccessKey Secret。
  access_id => process.env.ALIBABA_CLOUD_ACCESS_KEY_ID
  access_key => process.env.ALIBABA_CLOUD_ACCESS_KEY_SECRET
  project => "your project name"
  logstore => "your logstore name"
  consumer_group => "consumer group name"
  consumer_name => "consumer name"
  position => "end"
  checkpoint_second => 30
  include_meta => true
  consumer_name_with_ip => true
  }
}

output {
  stdout {}
}

内容没看懂? 不太想学习?想快速解决? 有偿解决: 联系专家

阿里云企业补贴进行中: 马上申请

腾讯云限时活动1折起,即将结束: 马上收藏

同尘科技为腾讯云授权服务中心。

购买腾讯云产品享受折上折,更有现金返利:同意关联,立享优惠

转转请注明出处:https://www.yunxiaoer.com/161884.html

(0)
上一篇 2023年12月10日 上午3:51
下一篇 2023年12月10日 上午3:51
详情页2

相关推荐

  • 阿里云RDS数据库(可选)ECS配置安全组-云淘科技

    RDS PostgreSQL的一键上云功能支持将ECS自建PostgreSQL迁移到RDS PostgreSQL。本文介绍上云前,ECS自建PostgreSQL配置安全组,允许RDS PostgreSQL访问自建PostgreSQL数据库端口。 前提条件 如果您需要将ECS自建PostgreSQL迁移到RDS PostgreSQL,则需要执行本文配置。ECS…

    2023年12月9日
  • 阿里云负载均衡结合全局流量管理实现跨地域负载均衡-云淘科技

    结合全局流量管理,您可在本地传统型负载均衡CLB(Classic Load Balancer)上层部署全局流量管理,实现跨地域容灾、不同地域访问加速和智能解析。 全局流量管理 负载均衡从其应用的地理结构上分为本地负载均衡和全局负载均衡。本地负载均衡是指对同地域的服务器群做负载均衡,全局负载均衡是指对分别部署在不同地域有不同网络结构的服务器群做负载均衡。 多线…

    2023年12月10日
  • 阿里云RDS数据库从自建MySQL迁移至RDS MySQL实例-云淘科技

    本文介绍如何使用数据传输服务DTS(Data Transmission Service),将自建MySQL迁移至RDS MySQL实例。DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建MySQL数据库的迁移上云。 支持的源和目标数据库 MySQL间迁移支持以下源或目标数据库。本文以有公网…

    阿里云数据库 2023年12月9日
  • 阿里云日志服务SLS跨地域传输数据-云淘科技

    日志服务支持通过数据加工实现跨地域传输数据,本文介绍跨地域传输数据的使用场景、操作步骤、计费等内容。 使用场景 当您的业务分布在不同地域时,相关日志也会分布在不同地域。当您需要对不同地域的日志进行集中管理时,您可以使用日志服务数据加工中的跨地域传输功能。操作步骤在数据加工页面,输入加工语句,然后单击预览数据。具体操作,请参见创建数据加工任务。说明 如果仅是复…

    2023年12月10日
  • 信息流广告,信息流部分建议宽度830px,只针对默认列表样式,顺序随机
  • 阿里云日志服务SLS通过Logtail跨阿里云账号采集日志-云淘科技

    本文介绍跨阿里云账号采集服务器日志的操作步骤。 背景信息 您要通过Logtail采集服务器日志时,在服务器上安装Logtail后,还需配置日志服务所在阿里云账号ID为用户标识,表示该账号有权限通过Logtail采集该服务器日志。否则在机器组中会显示服务器心跳失败,导致Logtail无法采集日志到日志服务。 例如某电商公司拥有两个电商应用,部署在阿里云杭州地域…

    2023年12月10日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。