采集业务系统日志问题

遇到问题:采集业务容器产生的日志,因为目录是自定义目录,因此在配置了一个日志目录卷,该目录下是有日志的

/uploads/files_user3149/question/5d37f7be27ec5955629.png


/uploads/files_user3149/question/5d37f51fd6ab8153277.png

日志收集服务采用的Elasticsearch去收集日志而且已经测试链接通过


/uploads/files_user3149/question/5d37f637beab9914740.png



/uploads/files_user3149/question/5d37f6bf549a8111551.png


用kibana做日志分析,部署的ELK镜像,项目代码使用logstash导入日志,kibana显示没问题,但是使用rancher这种配置日志目录形式,却采集不到,有弄过的帮忙分析一下具体原因吗?

已邀请:

我的也没收集到只有测试的几行

/uploads/files_user3087/answer/5d7f4fafe791e246022.png

请问有后续吗?怎么解决的,我的也是这样的

刚才在我的环境测试,是没有问题的:

  1. 使用rancher 应用商店启动EFK,使用默认值

  2. 启动项目级别logging,配置ES的Endpoint,我是直接使用的ES的svc ip,例如:http://10.43.156.35:9200

  3. Flush Interva 改为10秒,方便实时接收日志

  4. TEST,在kibana可以看见验证成功的信息,然后保存

  5. 创建workload,使用下面的配置:

/uploads/files_user25/answer/5eb261010aed1616131.png

  6.  for i in {1..10};do echo "`date '+%F %T %A'`: hailong-aaaaa-$i" >> /test-logs/hailong.log ;done  生成日志,然后在kibana中就可以查看到相关日志了。


如果只收到验证日志,未收到workload日志的话,建议:

  1. 查看 rancher-logging-fluentd-linux和 rancher-logging-log-aggregator-linux的日志,保证logging相关业务启动正常

  2. 可以先启动个带有日志的workload,确保标准日志输出的日志可以发送到es



rancher ui 上的es地址试试写es的master的IP地址,也许就有日志了

要回复问题请先登录注册