请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

日志消费堆积,查看日志报Timeout executing grok

公司用的日志收集,最近时不时有堆积情况,过几个小时又会恢复,es集群,分片检查了都正常,最后发现logstash和kafka一直在刷Timeout executing grok,
因为现在项目越来越多,可能个别日志,原有的grok正则匹配不了了,我想问下老师,能不能加个条件,就比如以上规则都匹配不成功的话,就将其跳过,这个功能可以实现吗,应该怎么实现呢.

正在回答 回答被采纳积分+3

2回答

rockybean 2023-09-03 11:17:46

这里有一篇比较早的 grok 文章,可以借鉴下,条件的多的时候要尽早识别不匹配的情况
https://www.elastic.co/blog/do-you-grok-grok


另外就是如果这个匹配解析可以在 client 提前做,就尽量提前,比如在 filebeat 端做掉,这样就节省logstash 的时间了

0 回复 有任何疑惑可以回复我~
提问者 慕粉8429964 2023-08-24 11:18:51

又了解了.我们正则匹配条件很多,第一个不匹配超时进入下一个.然后继续匹配,直到匹配成功,这样日志量大的时候就会堵塞,老师有没有什么优化建议,不加节点的情况

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号