第八章--实际项目性能分析--pprof分析beego项目的性能

下面分析近期做过的一个beego项目

最新开发了一个go项目, 目前已经上线, 昨天研究了性能测试, 那就对之前做的项目进行一个性能分析吧

给beeg项目添加pprof功能. 百度查了, 说beego是支持pprof的, 只需要在配置文件中beego.PprofOn = true开启即可, 但我试了似乎不行. 采用另一种方法

第一步: import 增加net/http/pprof包  

import(
    _ net/http/pprof
)

第二步: 打开http端的监听端口

go func() {
        http.ListenAndServe("localhost:8888", nil)
}()

这里定义了一个协程, 我直接把这个协程放在main启动函数里了, 和main函数一起启动监听程序

第三步: 在网页上查看, 输入http://localhost:8888/debug/profile, 这是会看到如下页面

 

为什么我们的heap才是2, 原因是,这个项目我是刚刚启动的。 随着请求访问的增加,连接数也会增加。 后面我们来模拟大量http请求, 具体含义如下

  • 2 allocs: 过去所有内存分配的样本
  • 0 block: 堆栈导致对原始同步的阻塞
  • 0 cmline: 当前程序的命令行调用
  • 16 goroutine: 当前所有goroutine的堆栈跟踪
  • 2 heap: 活动对象内存分配的采样。您可以指定gc GET参数以在获取堆样本之前运行GC。
  • 0 mutex: 竞争互斥持有人的堆栈痕迹
  • 0 profile: CPU配置文件。您可以在GET参数中指定持续时间。获取概要文件后,请使用go tool pprof命令调查文件。
  • 21 threadcreate: 导致创建新OS线程的堆栈跟踪
  • 0 trace: 当前程序执行的痕迹。您可以在GET参数中指定持续时间。获取跟踪文件后,使用go工具trace命令调查跟踪。

 

第四步: 通过Graphviz, 查看heap 

从图中看, cpu的使用是0, heap的使用是2, 所以, 我们查看heap. 

go tool pprof http://127.0.0.1:8888/debug/pprof/heap

然后输入web, 生成svg文件, 直接用浏览器打开, 如下:

inuse_space表示的是数据的类型是实时数据

            

          

 

通过这个图, 我们看到main调用以后的执行过程, 每一步的耗时是多少。

 

第五步: 模拟并发, 测试性能

1. 下载一个模拟http请求的工具wrk(模拟现实, 了解系统瓶颈, 将服务器置于一个繁忙的状态, 就像生产环境一样. ), 下载地址: https://github.com/wg/wrk.git

在github上也有这个工具的介绍, 

git clonehttps://github.com/wg/wrk.git
cd wrk
make

备注: 整个操作参考github上的说明即可.

2. 安装好wrk以后, 模拟批量请求

./wrk -c400 -t8 -d5m http://localhost:8888/deer/v1/user/login

我模拟的是批量登录, 参数含义如下

  • -c400: 我们有400个连接可以保持打开状态
  • -t8 :意味着我们使用8个线程来构建请求
  • -d5m 表示测试时间将持续5分钟

3. 在浏览器输入

http://localhost:8888/debug/pprof/

查看使用情况:

4. awk执行完以后, 查看执行结果汇总

5. 接下来用go tool pprof 查看 heap

go tool pprof -alloc_space/-inuse_space http://localhost:8888/debug/pprof/heap

 

 

 

 

 

可以清晰的看到两块占内存使用最多的地方, 第一个是bufio的Writer和Reader, 另一个是操作数据库。 这样我们就可以有针对性的进行优化了

 

 

 

 

posted @ 2020-02-18 04:58  盛开的太阳  阅读(2682)  评论(0编辑  收藏  举报