网站是nginx+php,有个接口是接受用户上传的图片,当接口并发量大的时候会报nginxwarnaclientrequestbodyisbufferedtoatemporaryfile/var/cache/nginx/client_temp/*****查了一下资料,应该是客户端请求内容大于缓冲区,请求内容被写入临时文件一般用户上传的图片都有1M左右,是否可以client_body_buffer_size1024k疑问:这样是否就是将请求保存在内存中?那么请求量大的时候会不会因为内存不足造成更大的问题最近服务器负载会飙高,估计也和这个接口有关系,上传图片比较慢导致大量php进程在处理,是否有其它替代方案?
2 回答
慕慕森
TA贡献1856条经验 获得超17个赞
如果你设定了最大的buffersize,那么当这个maxbuffer_size小于可以使用的内存大小时,是不会报内存不足的,这点可以不用担心。如果要坚持用php做这个的话,我个人觉得只能加强些硬件性能了,否则可以换一种异步io的方式做做看(nodejs),但不见得一定有效,也不知道会不会有其他方面的问题。
喵喔喔
TA贡献1735条经验 获得超5个赞
这本身就不是个问题。我nginx设置的上传大小是100wGB。我认为就不应该设置这个限制。然后说回问题本身,有这么多用户你还愣用一个小水管!!?!?!这本身就不科学啊!!那腾讯网银新浪神马的岂不是都能一台服务器搞定所有事了==
添加回答
举报
0/150
提交
取消