windows用apache的ab测试了服务器
ab -c 100 -n 1000 http://www.xxxxx.com
发现 每秒处理请求数只有20,其他的等待 不是说nginx默认的并发量很高么?
还是每秒处理请求数和并发不是一个概念。
每秒处理数 并发 压力测试 求疏通。。。
windows用apache的ab测试了服务器
ab -c 100 -n 1000 http://www.xxxxx.com
发现 每秒处理请求数只有20,其他的等待 不是说nginx默认的并发量很高么?
还是每秒处理请求数和并发不是一个概念。
每秒处理数 并发 压力测试 求疏通。。。
我们假设你的网站是一个静态站,所有的请求都走nginx,然后需要确认测试机和服务器的网络通信要畅通。ab这种工具对于压力测试来说不是很有说服力,推荐jmeter或者loadrunner。压力测试的时候要保证测试的响应时间曲线稳定住一定时间后,才认为是当前被测试服务器的真实性能,因为刚开始测试的时候需要一定预热时间,一般测试到一定时间之后曲线会稳定住,这时候再判断当前的响应时间。
每秒请求数 = 一段时间完成总的请求数 / 时间
并发量是当前保持的连接数吧,通过netstat -net
查看所有连接。
如:
netstat -ntp |grep -i "80" | wc -l
13 回答6.1k 阅读
5 回答7.8k 阅读✓ 已解决
4 回答2.1k 阅读
1 回答1.2k 阅读✓ 已解决
1 回答1k 阅读✓ 已解决
2 回答1.5k 阅读
2 回答971 阅读
不是同一个概念,但它们之间有联系:
设平均响应时间为t(单位为毫秒), 并发量为c,每秒处理请求数为q,则:
q = (1000/t) * c
就是这个关系;
想要升高q,就只有两条路:1) 降低t 2) 升高c
对于'1', 只能靠优化代码实现,只能尽量做,往往提升有限;
对于'2', 通常c与你服务器程序的请求处理模型有关,如果你服务器程序是“一个线程对应一个请求”的模式,那么c的最大值就受制于你能支撑多少个线程;如果是“一个进程对应一个请求”的模式,那么c的最大值则受制于最大进程数;
在升高c的过程中,不得不注意的一点是,线程/进程数越多,上下文切换、线程/进程调度开销会增大,这会显著间接地增大t的值从而不能让q跟着c的值等比升高, 所以一味增大c通常也不会有好结果,最合适的c值应该根据实测试验得出
另外,还有一种特殊情况:若业务决定了该服务器提供的服务具有“小数据量、较长返回时间”的特征,即这是一个不忙、但很慢的业务类型,那么可以采用NIO模式提供服务,比如nginx默认就采用nio模式;
在这种模式下,c值不再与线程/进程数相关,而仅仅与“socket连接数”相关,通常“socket连接数”可以非常大,在经过特殊配置的linux服务器上,可以同时支撑百万级别的socket连接数,在这种情况下c可以达到100w;
在如此高的c值之下,就算t再大,也可以支撑出一个很高的q,同时真正的线程/进程数可以只开到跟cpu核数一致,以求最大化cpu利用率;
当然这一切的前提是该业务具有“小数据量、较长返回时间”的特征