高并发大流量站点架构简单思路

*******************************
前端
*******************************
1.添加必要的硬件和带宽,同一时候额外储备一部分,以备不时之需
2.特别监控网络数据流量是否正常。如是否有大规模的爬虫、DDOS等浑水摸鱼,能够针对iP和Cookie的限流
3.使用CDN同一时候做一些必要的算法改造,动静分离



*******************************
代码端
*******************************
1.必要的代码优化改造如软件升级、慢查询、client缓存、多线程之类
2.设计高峰期时的降级使用:关掉或暂停非核心的页面功能、后端统计功能
3.SOA做好横向扩展,最好是自己主动化扩展
4.负载选择七层还是四层。负载会不是瓶颈
5.各种高大上的缓存:reids、mongdb、memcache等
6.web到数据库端须要一个“隔离区”,让数据平稳、源源不断的进入数据库
7.尽量不要使用带复杂业务逻辑处理的存储过程(犹其是在N大数据结果集中做业务逻辑处理)。降低数据库CPU和内存压力
8.功能模块间。做好隔离。不能由于一个功能载入不出数据。而影响其他非相互依赖功能。
9.合理的连接池设计



*******************************
后端
*******************************


1.主从复制:

情况1:非常难做到实时,可是切换时,可能有部分数据没有同步过来,带来了数据的一致性问题。
能够在操作主数据库的同一时候。记录操作日志。切换到备时,会和操作日志做个check,补齐未同步过来的数据。


情况2:dbrd+master-slave模式或share eveything架构


2.PXC或MGC群集的share nothing架构


3.依照页面不同需求拆分数据库:如用户登录、购物车、下单、支付等分布在不同数据库


4.按区域划分DB:如华东、华北、华中、华南、华西不同区域用户到不同IDC的DB,最后数据汇总到总部IDC就可以;当问题爆发时不会影响全局。单机房DB压力会减少.


5.数据库硬件:如使用SSD、闪存存储等.


6.纯内存数据库:如timesten、HANA或自己定制开发


7.杀手锏:
1)强行设置交易完毕如起飞时间也过也不可能退款的数据归档。归档数据仅仅供查询 .


2)假设第一种强行归档数据量依旧巨大,能够依照天如10天之前的归档。毕竟
80以上的交易都会完毕。在不大量改动代码的情况,如前端须要退款、改签处理,
将数据直接insert导入主库就可以,毕竟数据库insert不是最大的瓶颈.


3)依照订单状态拆分:下单未支付、支付完毕、处理中、支付完毕。分别架构到不同的表.



---------多机房容灾探讨
1.异地机房容灾
A->P还是A->A


2.单机房能够考虑多路光纤


3.底层复制:硬件、软件(RSYNC、DBRD、OGG)





posted @ 2017-05-30 10:17  jzdwajue  阅读(117)  评论(0编辑  收藏  举报