摘要: 文章目录概述一、利用torchstat 1.1 方法 1.2 代码 1.3 输出二、利用ptflops 2.1 方法 2.2 代码 2.3 输出三、利用thop 3.1 方法 3.2 代码 3.3 输出概述 Params:是指网络模型中需要训练的参数总数,理解为参数量。 FLOPs:是指浮点运算次数 阅读全文
posted @ 2022-04-17 15:49 咖啡陪你 阅读(2261) 评论(4) 推荐(0) 编辑
摘要: 1. 定义文件flops_counter.py import sys import torch import torch.nn as nn import numpy as np def get_model_complexity_info(model, input_res, print_per_lay 阅读全文
posted @ 2022-04-17 15:43 咖啡陪你 阅读(862) 评论(0) 推荐(0) 编辑
摘要: import torch from flops_counter import get_model_complexity_info input_shape = (3, 320, 568) split_line = '=' * 30 flops, params = get_model_complexit 阅读全文
posted @ 2022-04-17 15:42 咖啡陪你 阅读(337) 评论(0) 推荐(0) 编辑
摘要: 在pytorch环境下,有两个计算FLOPs和参数量的包thop和ptflops,结果基本是一致的。 thop 参考https://github.com/Lyken17/pytorch-OpCounter 安装方法:pip install thop 使用方法: from torchvision.mo 阅读全文
posted @ 2022-04-17 15:40 咖啡陪你 阅读(2398) 评论(0) 推荐(0) 编辑