应用容器化后,建议日志是落盘后再采集还是直接通过网络发到外部呢?

应用容器化后,建议日志是落盘后再采集还是直接通过网络发到外部呢?

参与38

11同行回答

北京不眠夜@博云北京不眠夜@博云产品经理公司
建议采用先落盘再转发的方式来处理日志。目前,我看到的主流做法都是通过EFK/ELK进行日志处理。如果有其他专业日志平台,可以通过kafka进行转发,以实现对接现有日志平台。filebeat部署在node节点上,负责日志采集kafka实现日志转发Elasticsearch日志存放Kibana进行日志展示和分...显示全部

建议采用先落盘再转发的方式来处理日志。
目前,我看到的主流做法都是通过EFK/ELK进行日志处理。如果有其他专业日志平台,可以通过kafka进行转发,以实现对接现有日志平台。
filebeat部署在node节点上,负责日志采集
kafka实现日志转发
Elasticsearch日志存放
Kibana进行日志展示和分析

通过网络外发,从技术上是完全可行的。但是,网络的不确定性,会造成传输过程的日志丢失风险,并且由于缺少本地日志,会出现不可逆的风险。因此,从稳妥上来说,建议先本地落盘,在转发出来。

收起
软件开发 · 2021-09-07
浏览1172

提问者

xylonxiang
运维经理湖南高阳通联
擅长领域: 云计算容器系统运维

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2021-09-01
  • 关注会员:12 人
  • 问题浏览:8923
  • 最近回答:2021-09-08
  • X社区推广