直接详细说明下场景:服务器A会通过curl将数据转发到服务器B上,服务器A每小时转发量在百万级。curl请求的是服务器B上的一个0字节的文件,只要把请求记录在服务器B的nginx日志里就可以了。现在通过两边的数据比对,发现数据一天会丢几千条,一小时会丢一两百条。服务器A用curl_errno(),甚至加了curl_getinfo()判断返回的是否是200都没有记录到curl报错这部分丢失的curl请求,想请教大家有什么好的分析思路跟经验可以借鉴的。补充:服务器间用的内网dns解析,排除了dns解析超时的故障求大神们支招了
2 回答
慕神8447489
TA贡献1780条经验 获得超1个赞
合并请求是个好的思路,并发处理过多的话,不仅是B服务器,A服务器也不见得能按照期望去处理。或者也可以使用队列来处理,每秒并发可以控制一个量级下去请求B服务器。
添加回答
举报
0/150
提交
取消