摘要:
文章目录概述一、利用torchstat 1.1 方法 1.2 代码 1.3 输出二、利用ptflops 2.1 方法 2.2 代码 2.3 输出三、利用thop 3.1 方法 3.2 代码 3.3 输出概述 Params:是指网络模型中需要训练的参数总数,理解为参数量。 FLOPs:是指浮点运算次数 阅读全文
摘要:
1. 定义文件flops_counter.py import sys import torch import torch.nn as nn import numpy as np def get_model_complexity_info(model, input_res, print_per_lay 阅读全文
摘要:
import torch from flops_counter import get_model_complexity_info input_shape = (3, 320, 568) split_line = '=' * 30 flops, params = get_model_complexit 阅读全文
摘要:
在pytorch环境下,有两个计算FLOPs和参数量的包thop和ptflops,结果基本是一致的。 thop 参考https://github.com/Lyken17/pytorch-OpCounter 安装方法:pip install thop 使用方法: from torchvision.mo 阅读全文