摘要:
111 阅读全文
摘要:
本来想用mingw编译boost::python模块,网上看了下资料太少,只有使用vs2012 操作环境:win7 x64 python: x86 boost: 1.57 编译boost::python模块 1: 开始->Microsoft Visual Studio 2012->Visual St 阅读全文
摘要:
Rank-1看一些论文总是在结果中看到rank-1,等等,但是就不知道什么意思,今天终于搞明白了,备注一下。 意思rank 1, 就是第一次命中rank k,就是在第k次以内命中人脸识别中,就代表,与目标人脸,最相似的k个人脸中,成功命中(找到正确人脸)的概率(和)。RANK曲线,一般又被称呼为CM 阅读全文
摘要:
1.IOU损失函数 IOU损失表示预测框A和真实框B之间交并比的差值,反映预测检测框的检测效果。 但是,作为损失函数会出现以下问题: 如果两个框没有相交,根据定义,IoU=0,不能度量IoU为零距离远近的程度。同时因为loss=0,没有梯度回传,无法进行学习训练。 IoU无法精确的反映两者的重合度大 阅读全文
摘要:
一、分类问题损失函数——交叉熵(crossentropy)交叉熵刻画了两个概率分布之间的距离,是分类问题中使用广泛的损失函数。给定两个概率分布p和q,交叉熵刻画的是两个概率分布之间的距离: 我们可以通过Softmax回归将神经网络前向传播得到的结果变成交叉熵要求的概率分布得分。在TensorFlow 阅读全文
摘要:
公式 首先需要了解CrossEntropyLoss的计算过程,交叉熵的函数是这样的: 其中,其中yi表示真实的分类结果。这里只给出公式,关于CrossEntropyLoss的其他详细细节请参照其他博文。 测试代码(一维) import torch import torch.nn as nn impo 阅读全文
摘要:
1、个人理解: 1.1、tensorflow的 构建视图、构建操作... 都只是在预定义一些操作/一些占位,并没有实际的在跑代码,一直要等到 session.run 才会 实际的去执行某些代码 1.2、我们 预定义的 一大堆 视图/操作 等等,并不一定所有的都会执行到,只有 session.run 阅读全文
摘要:
总结对比下L1L1 损失函数,L2L2 损失函数以及SmoothL1SmoothL1 损失函数的优缺点。 均方误差MSE (L2L2 Loss) 均方误差(Mean Square Error,MSE)是模型预测值f(x)f(x) 与真实样本值yy 之间差值*方的*均值,其公式如下 MSE=∑ni=1 阅读全文
摘要:
https://blog.csdn.net/qq_30815237/article/details/93596163 RPN 思路: 1、先通过conv层+pooling层+relu层,可以是vgg,得到feature maps。 2、在feature maps上提取对应的图。在第一步基础上,先通过 阅读全文
摘要:
python2中的range返回的是一个列表 python3中的range返回的是一个迭代值 for i in range(1,10)在python2和python3中都可以使用,但是要生成1-10的列表,就需要用list(range(1,10)) 在python核心编程中要输出abcde的子序列, 阅读全文