简单PHP控制站点并发数
一般来说,一个项目中总是会有一些较难处理的业务,比如业务复杂花样繁多的搜索,使用搜索系统如sphinx,lucence等来处理的话,数据源的若是变化过快(如顶、踩、浏览数之类),则首先推数据的频率就较难衡量,另外无法精确搜索或排序。所以一般情况下的做法是通过DB进行搜索,并且除了尽量将业务分解到程序层面外,还会在DB前加一层cache。但是这样做也有不少已知的弊端:
1、实际上很多业务无法放到普通的PHP中处理,如一些较复杂的排序、筛选,通过普通的PHP来实现的话效率还不如MYSQL。
2、cache的命中率也不好保证,特别是对一些使用关键词进行查询的业务,关键词变化太多。
若是遇到恶意刷的话,DB服务器容易直接挂掉,因此我们可以在程序层面上加一层限制器,限制并发数,该限制器具备以下特点:
1、高效(废话么,否则直接刷限制器就刷爆了)。现在是使用memcache进行原子操作计数,可以扩展成使用其他方法。
2、精确到action层。可以单独限制单个页面。
3、方便。见仁见智吧
4、成本低廉。包括研发成本与硬件成本。
根据压测,原先只能100并发的搜索功能,限制100后,压测800结果正常。
代码如下:
<?php /** * 搜索 */ public function search(){ //增加计数器功能,超过次数则返回系统繁忙 $viewlimiter = Library::load('viewlimiter'); //访问限制器的名称,请用controller+action,尽量单个页面保持唯一 $limitName = 'search_search'; //最多同时访问数 $limit = 100; //若是超过数量则直接返回 if(!$viewlimiter->check($limitName, $limit)) { ajaxOutput(0, $this->lang->line('multi_search_limit')); } /*----复杂变态的业务逻辑-----*/ $xxxModel->search($params); } //end func ?>
扩展话题:
1、若是该业务被刷,可能导致正常用户无法查看内容。 -- 这个问题要解决只能是从系统层面去操作,可见这边:http://johnsteven.blog.51cto.com/2523007/818209
2、限制数最好能与缓存命中率相结合,一定范围内自动变更限制数,提高限制的精准度。 -- 这个后期可以进行研究,与缓存类相结合
3、根据服务器负载进行动态控制。 -- 涉及到底层及服务器权限,研究成本较高,有兴趣的话可以研究。
注:
本文只说明思路,具体代码由于一些原因暂时不开放