随笔分类 -  硕士阶段

1
摘要:一、安装Anaconda并创建虚拟环境 1、官网下载Anaconda安装包安装即可 2、创建新的虚拟环境 conda create -n openmmlab python=3.8 conda activate openmmlab 二、配置Pytorch环境 1、查看并确定自己电脑的CUDA版本 打开 阅读全文
posted @ 2023-05-27 12:58 彼岸的客人 阅读(471) 评论(0) 推荐(0) 编辑
摘要:C++ & opencv配置(win10) 安装环境: c++ cmake opencv CLion 一、C++编译环境配置 GCC 官网提供的 GCC 编译器是无法直接安装到 Windows 平台上的,如果我们想在 Windows 平台使用 GCC 编译器,可以安装 GCC 的移植版本。 目前适用 阅读全文
posted @ 2022-06-22 11:17 彼岸的客人 阅读(838) 评论(0) 推荐(0) 编辑
摘要:DN-DETR CVPR 2022 的一篇文章 一、Introduction 之前许多工作对 detr 的encoder或是decoder结构进行了改进,以期改善收敛慢的现象。本文作者从另一个角度(训练方法的角度)分析和解决了detr收敛慢的问题。 第一次提出了全新的去噪训练(DeNoising t 阅读全文
posted @ 2022-04-08 14:56 彼岸的客人 阅读(2443) 评论(1) 推荐(1) 编辑
摘要:2021年ICLR的一篇文章 一、Introduction DETR的缺点: 1、模型很难收敛,训练困难。相比于现存的检测器,他需要更长的训练时间来收敛,在coco数据集上,他需要500轮来收敛,是faster r-cnn的10到20倍; 2、DETR在小物体检测上性能较差。现存的检测器通常带有多尺 阅读全文
posted @ 2022-04-01 09:48 彼岸的客人 阅读(7953) 评论(0) 推荐(1) 编辑
摘要:引入numpy科学计算库: import numpy as np >创建元素均为零的矩阵,大小为shape,元素类型dtype: np.zeros(shape, dtype) >创建等差数组,返回一维的数组(可以用reshape将其变为矩阵更好处理一些) np.arange([start=0],st 阅读全文
posted @ 2022-03-25 21:19 彼岸的客人 阅读(50) 评论(0) 推荐(0) 编辑
摘要:python函数缓存装饰器@functools.lru_cache() 参考文章:https://zhuanlan.zhihu.com/p/348370957 (Python 中 lru_cache 的使用和实现) 在编写递归函数时,可以在函数定义前面加上一个装饰器,来保存递归过程中的结果,减少程序 阅读全文
posted @ 2022-02-16 20:49 彼岸的客人 阅读(352) 评论(0) 推荐(0) 编辑
摘要:python中深拷贝浅拷贝问题 深拷贝浅拷贝只是针对python中的可变对象才有区别的(即列表、字典、集合),对于不可变对象(即字符串、数字、元组)不管是赋值还是拷贝都是给的地址,修改后的新值存在新的地址上。 1、浅拷贝 copy库的copy()方法;列表自带的copy()方法;切片;工厂函数(如l 阅读全文
posted @ 2022-02-16 20:47 彼岸的客人 阅读(65) 评论(0) 推荐(0) 编辑
摘要:一、创建虚拟环境 conda create -n open-mmlab python=3.7 -y conda activate open-mmlab 二、安装pytoch + cudatoolkit 去pytorch官网 https://pytorch.org/ 按照自己的要求来选择,根据官网的命 阅读全文
posted @ 2022-01-11 10:40 彼岸的客人 阅读(386) 评论(0) 推荐(0) 编辑
摘要:Self-Supervised Learning 参考知乎文章:https://zhuanlan.zhihu.com/p/108906502(Self-supervised Learning 再次入门) 自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种 阅读全文
posted @ 2021-10-06 18:58 彼岸的客人 阅读(431) 评论(0) 推荐(0) 编辑
摘要:mask-rcnn知识总结 论文地址:https://arxiv.org/abs/1703.06870 比较好的论文解读文章:https://zhuanlan.zhihu.com/p/102331538(实例分割算法之Mask R-CNN论文解读) ​ https://zhuanlan.zhihu. 阅读全文
posted @ 2021-10-06 18:56 彼岸的客人 阅读(123) 评论(0) 推荐(0) 编辑
摘要:DeepLab-v3(86.9 mIOU) 论文地址:https://arxiv.org/pdf/1706.05587.pdf(Rethinking Atrous Convolution for Semantic Image Segmentation) 讲解文章:https://blog.csdn. 阅读全文
posted @ 2021-10-06 18:52 彼岸的客人 阅读(1205) 评论(0) 推荐(0) 编辑
摘要:DeepLab-v2(79.7 mIOU) 参考文章:https://blog.csdn.net/qq_14845119/article/details/102942576(图像分割之 deeplab v1,v2,v3,v3+系列解读) 论文地址:https://arxiv.org/abs/1606 阅读全文
posted @ 2021-10-06 18:51 彼岸的客人 阅读(560) 评论(0) 推荐(0) 编辑
摘要:DeepLab-v1(71.6 mIOU) 参考文章:https://zhuanlan.zhihu.com/p/22308032(图像语义分割之FCN和CRF) 论文地址:https://arxiv.org/pdf/1412.7062v3.pdf DeepLab可以换分为两部分: 前端使用带空洞卷积 阅读全文
posted @ 2021-10-06 18:50 彼岸的客人 阅读(209) 评论(0) 推荐(0) 编辑
摘要:Fully Convolutional Networks (2015) 图像分割即对每一个像素进行预测 我们分类使用的网络通常会在最后连接几层全连接层,它会将原来二维的矩阵(图片)压扁成一维的,从而丢失了空间信息,最后训练输出一个标量,这就是我们的分类标签。而图像语义分割的输出需要是个分割图,且不论 阅读全文
posted @ 2021-10-06 18:49 彼岸的客人 阅读(173) 评论(0) 推荐(0) 编辑
摘要:C++数组是继承C语言的,C++标准库中的vector封装了动态数组,是一个模板类(vector<int>,<>里面可以是各种类型。 定义方式: vector<元素类型> 对象名(长度); (注:vector还有个好处就是,数组定义时长度那里不能包含变量,但是vector定义时长度那里可以包含变量, 阅读全文
posted @ 2021-07-14 15:57 彼岸的客人 阅读(335) 评论(0) 推荐(0) 编辑
摘要:进行迁移学习时,加载完别人的模型,想要进行一些微调,就需要想办法获取到该网络中某些张良的名称,尤其是输入和输出。 with tf.Session() as sess: #此处加载模型 tensor_name_list = [tensor.name for tensor in tf.get_defau 阅读全文
posted @ 2019-11-19 09:17 彼岸的客人 阅读(674) 评论(0) 推荐(0) 编辑
摘要:一、.ckpt文件的保存和加载 1、保存的文件 这是我保存的文件,保存一次有四个文件: checkpoint文件:用于告知某些TF函数,这是最新的检查点文件(可以用记事本打开看一下) .data文件:(后面缀的那一串我也布吉岛是啥)这个文件保存的是图中所有变量的值,没有结构。 .index文件:可能 阅读全文
posted @ 2019-11-18 15:40 彼岸的客人 阅读(18750) 评论(0) 推荐(4) 编辑
摘要:在搭建网络模型时通常要建立一个评估模型正确率的节点(evaluation_step) 这里介绍一个对于分类问题可以用的评估方法: 代码: correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(groundtruth_input, 阅读全文
posted @ 2019-11-17 09:57 彼岸的客人 阅读(814) 评论(0) 推荐(0) 编辑
摘要:训练神经网络模型时通常要设置学习率learning_rate,可以直接将其设置为一个常数(通常设置0.01左右),但是用产生过户学习率会使参数的更新过程显得很僵硬,不能很好的符合训练的需要(到后期参数仅需要很小变化时,学习率的值还是原来的值,会造成无法收敛,甚至越来越差的情况),过大无法收敛,过小训 阅读全文
posted @ 2019-11-16 11:17 彼岸的客人 阅读(1808) 评论(0) 推荐(0) 编辑
摘要:在分类问题中,交叉熵是经常选用的损失函数(loss) 关于交叉熵的详细解释请看这篇博客:https://blog.csdn.net/tsyccnh/article/details/79163834 在单分类问题中(即one-hot问题),通常使用tf.nn.softmax_cross_entropy 阅读全文
posted @ 2019-11-16 10:48 彼岸的客人 编辑

1
点击右上角即可分享
微信分享提示