详情页标题前

阿里云日志服务SLS多目标Logstore数据分发-云淘科技

详情页1

本文介绍多目标Logstore数据分发的各种场景(动态分发、跨账号分发、跨账号动态分发、复杂场景动态分发等)及操作步骤。

背景信息

日志服务数据加工功能支持将加工结果分发到多个目标Logstore中。您可以在保存数据加工结果时,设置不同账号的AccessKey信息,将加工结果分发到不同账号的Logstore中;您也可以使用e_output函数、e_coutput函数动态获取目标Project和Logstore,将加工结果分发到不同的Logstore中。说明

  • 最多跨20个账号分发加工结果。
  • 如果您使用的是e_output函数,则通过e_output函数输出日志到指定的Logstore后,对应的日志不再执行后面的加工规则。如果您希望输出日志到指定的Logstore后,对应的日志还能继续执行后面的加工规则,可使用e_coutput函数。更多信息,请参见e_output、e_coutput。本文以e_output函数为例。

场景1:跨账号分发

例如:某网站所有的访问日志存储在一个Logstore中,现在希望将不同状态的日志分发存储到不同账号下的Logstore中。

针对上述需求,您可以通过日志服务数据加工功能解决。

  • 原始日志
    http_host:  example.com
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    http_host:  example.org
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    http_host:  example.net
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    http_host:  aliyundoc.com
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https
  • 分发需求
    • http_status为2XX的日志存储到存储目标target0中的Logstore0中,并设置日志主题为success_event。
    • http_status为3XX的日志分发到存储目标target1中的Logstore1中,并设置日志主题为redirection_event。
    • http_status为4XX的日志分发到存储目标target2中的Logstore2中,并设置日志主题为unauthorized_event。
    • http_status为5XX的日志分发到存储目标target3中的Logstore3中,并设置日志主题为internal_server_error_event。

    其中target0在账号A下,target1、target2和target3在账号B下。

  • 加工规则
    e_switch(e_match("status", r"2\d+"), e_set("__topic__", "success_event"),
             e_match("status", r"3\d+"), e_compose(e_set("__topic__", "redirection_event"), e_output("target1")),
             e_match("status", r"4\d+"), e_compose(e_set("__topic__", "unauthorized_event"), e_output("target2")),
             e_match("status", r"5\d+"), e_compose(e_set("__topic__", "internal_server_error_event`"), e_output("target3"))
        )
  • 存储目标在创建数据加工任务面板中,配置存储目标。更多信息,请参见创建数据加工任务。阿里云日志服务SLS多目标Logstore数据分发-云淘科技
    标号 存储目标 目标Project和Logstore AccessKey
    1 target0 Project0、Logstore0 账号A的AccessKey信息
    2 target1 Project1、Logstore1 账号B的AccessKey信息
    3 target2 Project2、Logstore2 账号B的AccessKey信息
    4 target3 Project3、Logstore3 账号B的AccessKey信息
  • 加工结果
    ## http_status为2XX的日志,分发到账号A下logstore0中。
    
    __topic__:  success_event
    http_host:  example.com
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    ## http_status为3XX的日志,分发到账号B中的Logstore1中。
    
    __topic__:  redirection_event
    http_host:  example.org
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    ##http_status为4XX的日志,分发到账号B中的Logstore2中。
    
    __topic__: unauthorized_event
    http_host:  example.net
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    ## http_status为5XX的日志,分发到账号B中的Logstore3中。
    
    __topic__: internal_server_error_event
    http_host:  aliyundoc.com
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https

场景2:简单场景动态分发

例如:某网站所有的访问日志存储在一个Logstore中,现在希望根据project字段和logstore字段分发存储到不同的Logstore中。

针对上述需求,您可以通过日志服务数据加工功能解决。

  • 原始日志
    __tag__:type: dynamic_dispatch
    host:  example.aliyundoc.com
    project: Project1
    logstore: Logstore1
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    __tag__:type: dynamic_dispatch
    host:  demo.aliyundoc.com
    project: Project1
    logstore: Logstore2
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    __tag__:type:  dynamic_dispatch
    host:   learn.aliyundoc.com
    project: Project2
    logstore: Logstore1
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    __tag__:type: dynamic_dispatch
    host:   guide.aliyundoc.com
    project: Project2
    logstore: Logstore2
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https
  • 分发需求
    • 根据日志中project字段和logstore字段的值的不同,进行动态分发。
    • 为日志添加__tag:__type字段,值为dynamic_dispatch。
  • 加工规则
    e_output(project=v("project"), logstore=v("logstore"), tags={"type": "dynamic_dispatch"})

    e_output函数动态提取project字段和logstore字段的值进行日志分发。

  • 存储目标在创建数据加工任务页面中,设置默认存储目标即可,用于存储其他在加工过程中没有被丢弃的日志。说明 此场景中,动态分发的目标Project和Logstore由e_output函数中的配置决定,与创建数据加工任务页面中默认存储目标(标号1)中配置的目标Project和Logstore无关。阿里云日志服务SLS多目标Logstore数据分发-云淘科技
  • 加工结果
    ## 分发到Project1下的Logstore1中。
    
    __tag__:type: dynamic_dispatch
    host:  example.aliyundoc.com
    project: Project1
    logstore: Logstore1
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    ## 分发到Project1下的Logstore2中。
    
    __tag__:type: dynamic_dispatch
    host:  demo.aliyundoc.com
    project: Project1
    logstore: Logstore2
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    ## 分发到Project2下的Logstore1中。
    
    __tag__:type:  dynamic_dispatch
    host:   learn.aliyundoc.com
    project: Project2
    logstore: Logstore1
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    ## 分发到Project2下的Logstore2中。
    
    __tag__:type: dynamic_dispatch
    host:   guide.aliyundoc.com
    project: Project2
    logstore: Logstore2
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https

场景3:跨账号动态分发

例如:某网站所有的访问日志存储在一个Logstore中,现在希望根据project字段和logstore字段动态分发日志到不同账号下的Logstore中。

针对上述需求,您可以通过日志服务数据加工功能解决。

  • 原始日志
    host:  example.aliyundoc.com
    project: Project1
    logstore: Logstore1
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    host:  demo.aliyundoc.com
    project: Project1
    logstore: Logstore2
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    host:   learn.aliyundoc.com
    project: Project2
    logstore: Logstore1
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    host:   guide.aliyundoc.com
    project: Project2
    logstore: Logstore2
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https
  • 分发需求

    根据日志中project和logstore字段的值的不同,进行动态分发,目标Project属于不同的账号,Project1(包含两个Logstore:Logstore1、Lostore2)属于账号A,Project2(包含两个Logstore:Logstore1、Lostore2)属于账号B。

  • 加工规则
    e_switch(e_match(v("project"), "Project1"), e_output(name="target1", project=v("project"), logstore=v("logstore")),
             e_match(v("project"), "Project2"), e_output(name="target2", project=v("project"), logstore=v("logstore")))
  • 存储目标在创建数据加工任务页面中,配置存储目标。更多信息,请参见创建数据加工任务。说明 此场景中,目标Project和Logstore由e_output函数中的配置决定,与创建数据加工任务页面中默认存储目标(标号1)中配置的目标Project和Logstore无关。阿里云日志服务SLS多目标Logstore数据分发-云淘科技
    标号 存储目标 目标Project和Logstore AccessKey
    1 target0 Project0、Logstore0 不涉及
    2 target1 任意选择,由e_output函数决定分发目标。 账号A的AccessKey信息
    3 target2 任意选择,由e_output函数决定分发目标。 账号B的AccessKey信息
  • 加工结果
    ## 分发到账号A的Project1下的Logstore1中。
    
    host:  example.aliyundoc.com
    project: Project1
    logstore: Logstore1
    http_status:  200
    request_method:  GET
    request_uri:  /pic/icon.jpg
    scheme:  https
    
    ## 分发到账号A的Project1下的Logstore2中。
    host:  demo.aliyundoc.com
    project: Project1
    logstore: Logstore2
    http_status:  301
    request_method:  POST
    request_uri:  /data/data.php
    scheme:  http
    
    ## 分发到账号B的Project2下的Logstore1中。
    
    host:   learn.aliyundoc.com
    project: Project2
    logstore: Logstore1
    http_status:  404
    request_method:  GET
    request_uri:  /category/abc/product_id
    scheme:  https
    
    ## 分发到账号B的Project2下的Logstore2中
    
    host:   guide.aliyundoc.com
    project: Project2
    logstore: Logstore2
    http_status:  504
    request_method:  GET
    request_uri:  /data/index.html
    scheme:  https

场景4:复杂场景动态分发

例如:某公司对一款游戏投放了广告,现在关于该游戏的所有API请求信息都存储在一个Logstore中。该公司希望通过解析useragent请求头,将来自不同设备(iOS、Android、Windows)的请求进行分发存储,并对method方法进行数据分析获取广告转化率。

针对上述需求,您可以通过日志服务数据加工和查询分析功能解决。

  • 原始日志
    __source__:127.0.0.0
    __tag__:__receive_time__: 1589541467
    ip:10.0.0.0
    request_method: GET
    user_agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:50.0) Gecko/20100101 Firefox/50.0
  • 分发需求
    • 将Windows用户请求信息分发存储到存储目标target1的Logstore1中。
    • 将iOS用户请求信息分发存储到存储目标target2的Logstore2中。
    • 将Android用户请求信息分发存储到存储目标target3的Logstore3中。
  • 加工规则

    本案例中,您可以使用ua_parse_os函数解析user_agent字段,使用dct_get函数获取请求头中的操作系统信息,再使用e_set函数新增一个字段os,值为操作系统信息,然后使用e_output函数和条件函数进行动态分发。

    e_set("os", dct_get(ua_parse_os(v("user_agent")),"family"))
    e_if(e_search("os==Windows"),e_output(name="target1"))
    e_if(e_search("os=iOS"),e_output(name="target2"))
    e_if(e_search("os==Android"),e_output(name="target3"))
  • 存储目标

    在创建数据加工任务页面中,配置存储目标。更多信息,请参见创建数据加工任务。

    阿里云日志服务SLS多目标Logstore数据分发-云淘科技

    标号 存储目标 目标Project和Logstore
    1 target0 Project0、Logstore0
    2 target1 Project1、Logstore1
    3 target2 Project2、Logstore2
    4 target3 Project3、Logstore3
  • 查询分析

    在目标Logstore中进行查询分析操作,获取广告转化率,根据下述查询结果可知,Android用户的广告转化率较高。更多信息,请参见查询和分析日志。

    • 在Logstore2的查询分析页面,输入如下查询分析语句,查看iOS用户的GET请求和POST请求占比。
      * | SELECT Request_method, COUNT(*) as number GROUP BY Request_method

      阿里云日志服务SLS多目标Logstore数据分发-云淘科技

    • 在Logstore3的查询分析页面,输入如下查询分析语句,查看Android用户的GET请求和POST请求占比。
      * | SELECT Request_method, COUNT(*) as number GROUP BY Request_method

      阿里云日志服务SLS多目标Logstore数据分发-云淘科技

内容没看懂? 不太想学习?想快速解决? 有偿解决: 联系专家

阿里云企业补贴进行中: 马上申请

腾讯云限时活动1折起,即将结束: 马上收藏

同尘科技为腾讯云授权服务中心。

购买腾讯云产品享受折上折,更有现金返利:同意关联,立享优惠

转转请注明出处:https://www.yunxiaoer.com/165841.html

(0)
上一篇 2023年12月10日
下一篇 2023年12月10日
详情页2

相关推荐

  • 阿里云日志服务SLS估算函数-云淘科技

    本文介绍估算函数的基本语法及示例。 日志服务支持如下估算函数。 注意 在日志服务分析语句中,表示字符串的字符必须使用单引号(”)包裹,无符号包裹或被双引号(””)包裹的字符表示字段名或列名。例如:’status’表示字符串status,status或”status”表示日志字…

    2023年12月10日
  • 腾讯云云函数(SCF)SCF + CLS 日志转存至对象存储 COS-云淘科技

    操作场景 本文为您介绍如何通过云函数 SCF 将 CLS 日志转储至对象存储 COS。其中,CLS 主要用于日志采集,SCF 主要提供数据加工的节点计算能力,COS 主要提供终端永久性存储能力。数据处理流程图请参见 函数处理概述。 操作步骤 创建日志集和主题 1. 登录 日志服务控制台,在左侧导航栏中单击日志主题。2. 进入日志集管理页面,在页面上方选择日志…

    2023年12月9日
  • 信息流广告,信息流部分建议宽度830px,只针对默认列表样式,顺序随机
  • 腾讯云容器服务Job 管理同尘科技

    简介 Job 控制器会创建 1-N 个 Pod,这些 Pod 按照运行规则运行,直至运行结束。Job 可用于批量计算、数据分析等场景。通过设置重复执行次数、并行度、重启策略等满足业务诉求。Job 执行完成后,不再创建新的 Pod,也不会删除 Pod,您可在 “日志” 中查看已完成的 Pod 的日志。如果您删除了 Job,Job 创建的 Pod 也会同时被删除…

    2023年12月9日
  • 腾讯云TDSQL-C MySQL版编辑和删除标签

    您可以按照下列操作对集群进行标签的添加、更换、设置和解绑操作。 前提条件 已完成 创建标签和绑定资源。 操作步骤 在集群列表页面,根据实际使用的视图模式进行操作:页签视图列表视图1. 登录 TDSQL-C MySQL 版控制台,在左侧集群列表,单击目标集群,进入集群管理页。2. 在集群管理页,标签后单击 。 3. 在弹窗下,可添加、修改、设置、解绑标签…

    2023年12月9日
  • 腾讯云对象存储媒体信息接口

    简介 本文档提供用于获取媒体文件的信息的代码示例。注意 需要 COS PHP SDK v2.3.2 及以上版本。旧版本可能存在 bug,使用时建议升级到 最新版本。 API 操作名 操作描述 GetMediaInfo 查询文件信息 用于查询媒体文件的信息 查询文件信息 功能说明 用于查询媒体文件的信息。注意 使用此接口前,请确保已打开官网控制台中数据处理下的…

    腾讯云 2023年12月9日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。