摘要: 普通的分类网络最后一层为全连接层,全连接层会把输入特征图展平成向量后,输出固定类别大小的向量,所以对输入尺寸要求是固定的。 需要解决这个问题,可以用两种办法: 1、将fc层前一层的max pooling 或 avg pooling 改为pytorch adaptive avg pooling(pyt 阅读全文
posted @ 2022-06-15 17:42 InsistPy 阅读(399) 评论(0) 推荐(0) 编辑
摘要: 强化学习分为model-based, (model-freed=>policy based, value-based),其中mode-based需要对环境进行建模,以及对神经网络后的状态和奖励建模,相对实现起来比较复杂,但是产出的样本效率高。Model-freed方法自然样本效率很低,但是简单,可以 阅读全文
posted @ 2022-05-29 21:44 InsistPy 阅读(850) 评论(0) 推荐(1) 编辑
摘要: 角点匹配的通用流程:提取检测子,筛选后生成描述子,特征点匹配,去除匹配错误点 Sift角点提取: 1、高斯模糊 高斯模糊(图像和高斯核卷积得到的结果),对图像进行一定的平滑处理。其中sigma表示的是尺度空间,它表示的是图像模糊的程度,值越大图像越模糊,越小越接近原图。 2、构建高斯金字塔 (1)  阅读全文
posted @ 2022-05-29 21:37 InsistPy 阅读(593) 评论(0) 推荐(0) 编辑
摘要: 网络结构没什么可说的,基本还是沿用特征提取+head的思路 这篇论文主要的贡献在于相比语义分割,可以人工划定对应的row 采样步长,以及每个row对应的块宽度,从而实现针对一个区块进行分类,对性能整体加速非常明显 这里主要记录一下loss的计算过程 分类loss: (1) 将特征图按照行高划分为h行 阅读全文
posted @ 2022-05-24 23:22 InsistPy 阅读(279) 评论(0) 推荐(0) 编辑
摘要: 退学心法 小明与我 人与人之间智商的差异很小,性格的差异很大,战胜不了自己,也成就不了自己。 什么是勇气?就是当你感到害怕时还坚持做下去。 什么是自制力?就是当你非常想去做有任何条件做某件事时还坚持不去做。 为什么每次赚钱后都会来一次大亏,不仅仅是只有我这个问题很多人都存在,说明这个问题绝对不是什么 阅读全文
posted @ 2021-12-05 22:31 InsistPy 阅读(263) 评论(2) 推荐(0) 编辑
摘要: RNN网络顾名思义,序列模型,因此假设input -> hidden -> output结构下,hidden layer的权重不仅从 input中得来,并且会从上一个时刻的hidden layer的权重得来,具体如图 RNN梯度消失与梯度爆炸的原因: https://zhuanlan.zhihu.c 阅读全文
posted @ 2020-12-19 21:05 InsistPy 阅读(417) 评论(0) 推荐(0) 编辑
摘要: 一个线程的多个协程的运行是串行的。如果是多核CPU,多个进程或一个进程内的多个线程是可以并行运行的,但是一个线程内协程却绝对是串行的,无论CPU有多少个核。毕竟协程虽然是一个特殊的函数,但仍然是一个函数。一个线程内可以运行多个函数,但这些函数都是串行运行的。当一个协程运行时,其它协程必须挂起。 协程 阅读全文
posted @ 2020-09-18 16:29 InsistPy 阅读(450) 评论(0) 推荐(0) 编辑
摘要: 主要过程包含特征选择,决策树生成,决策树剪枝 特征选择: https://www.pkudodo.com/2018/11/30/1-5/ 上式是什么意思?不着急慢慢来。我们先看下面这张图。我们假设D和B是两个判断节点,它们在同一个分支中,D通过对样本特征A的值新型判断后进入了A分支。那么在D节点中我 阅读全文
posted @ 2020-09-15 17:24 InsistPy 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 在统计学习,机器学习中,我们的目标就是找到两个随机变量的联合概率分布P(X,Y)P(X,Y)P(X,Y) 。 比如说我们有一个模型,有输入变量空间X=(x1,x2,...,xn)X=(x_1,x_2,...,x_n)X=(x1​,x2​,...,xn​) 和输出变量空间Y=(y1,y2,...,ym 阅读全文
posted @ 2020-09-10 20:06 InsistPy 阅读(129) 评论(0) 推荐(0) 编辑
摘要: 距离度量 k值选择 分类决策规则: KD树 K近邻并没有显式的学习过程,也就是不需要对训练集进行学习。预测过程中直接遍历预测点与所有点的距离,并找到最近的K个点即可。找到K个最近点后,使用多数表决(即投票)的方式确定预测点的类别。 kd树作为binary search tree的高维存在,举个栗子: 阅读全文
posted @ 2020-09-04 15:52 InsistPy 阅读(155) 评论(0) 推荐(0) 编辑
隐藏