测试的是我开发的一个API网关。现在部署在一个阿里云上的linux 单核 1g运存的服务器上。用的Nodejs开发服务器上运行了 4个node服务 (一个管理平台,一个对外平台,一个api服务,一个网关本身) 1个postgresql 网关依赖的数据库目标api两个接口,一个post登录,一个get请求数据,get是文件读取操作。网关本身每个请求一个数据库插入操作。并发在100cpu满了,响应时间变长,120内存满了,应用worker开始崩溃(有两个worker)主进程不断重启还能跑,还可以请求,这时候一个请求响应速度在2秒左右一直维持到250并发,没死掉但是有10%的事务丢失。之前跑过一个100并发的 tps在285
- 1 回答
- 0 关注
- 884 浏览
添加回答
举报
0/150
提交
取消