k8s在产生环境用了一段时间了, 但是一直没有很高的用户访问量
最近在压力的时候 发现一个问题, 如果一个pod内的 某个api 路由 被压测了之后, like above 1000 qps
该pod对这个api路由会做一个记录直接返回504, 然后该pod内的其他路由却不收影响, 我想这样是k8s的某种保护机制,
关键时刻掉砍到自己的一部分 保证整体是好的.
暂时用service kube-proxy restart 命令就可以搞定,让该服务重新工作
需要研究一下kube-proxy这样处理的机制是什么
如果您觉得该文章对您有帮助请下面 赞赏 走一波.
网友评论