01 2023 档案

摘要:import numpy as np predict = np.random.rand(7, 3) gt = np.random.randint(0, 3, (7, 1)) # [[0.86111937 0.17885014 0.15346783] # [0.18914942 0.55776159 阅读全文
posted @ 2023-01-16 16:34 无左无右 阅读(49) 评论(0) 推荐(0) 编辑
摘要:mount -t cifs //192.168.1.23/data path_local -o username=nihao,password=2023 阅读全文
posted @ 2023-01-10 17:12 无左无右 阅读(31) 评论(0) 推荐(0) 编辑
摘要:pytorch的torchvision.ops.roi_align这个算子真的是坑我好多天啊!害我连续加班半个月!二阶段目标检测后面用roi_align来提取特征。 接口官方说明: https://pytorch.org/vision/stable/generated/torchvision.ops 阅读全文
posted @ 2023-01-10 11:23 无左无右 阅读(657) 评论(0) 推荐(0) 编辑
摘要:#python 读取文本: ##方法1: with open(txt_path, "r") as fr: lines = fr.readlines() for line in lines: line = line.strip() #去除换行符 \n ##方法2: f = open("tmp2.txt 阅读全文
posted @ 2023-01-10 10:23 无左无右 阅读(105) 评论(0) 推荐(0) 编辑
摘要:import time str_time_now = time.strftime("%Y-%m-%d_%H:%M:%S", time.localtime()) ##2023-01-10_09:58:33 2023-01-10_09:58:33 用str_time_now可以很方便的嵌入到文件名中,方 阅读全文
posted @ 2023-01-10 10:00 无左无右 阅读(104) 评论(0) 推荐(0) 编辑
摘要:bn层又坑我一次!!!! caffe转pytorch。 由于第二次加了一些网络,不知道从哪里复制的,直接是 self.p6_conv_bn = nn.BatchNorm2d(128) 然后跑前向对精度的时候死活不一样啊!!!! 然后开始了我查找问题的漫漫之旅!!足足花了我2h。 首先就是对各种层输出 阅读全文
posted @ 2023-01-06 15:35 无左无右 阅读(141) 评论(0) 推荐(0) 编辑
摘要:在blob.hpp添加函数: void save_data_to_txt(const string path_txt, bool b_save_shape = true) { std::ofstream fOut(path_txt); if (!fOut) { std::cout << "Open 阅读全文
posted @ 2023-01-05 17:01 无左无右 阅读(20) 评论(0) 推荐(0) 编辑
摘要:void MyLossLayer<Ftype, Btype>::Forward_cpu(const vector<Blob*>& bottom, const vector<Blob*>& top) { // bottom[0]: "depth" 1x1x36x64 // bottom[1]: "da 阅读全文
posted @ 2023-01-04 14:15 无左无右 阅读(12) 评论(0) 推荐(0) 编辑