会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。
博客园
首页
博问
闪存
新随笔
订阅
管理
上一页
1
···
5
6
7
8
9
10
11
12
13
···
15
下一页
2020年3月12日
常用小结
摘要: dic_class={'4':3,'5':5,'1':1} dic_class_sorted = sorted(dic_class, key=dic_class.__getitem__, reverse=True) print(dic_class_sorted) 输出: ['5', '4', '1'
阅读全文
posted @ 2020-03-12 12:34 爽歪歪666
阅读(138)
评论(0)
推荐(0)
编辑
2020年2月11日
Python 深拷贝,浅拷贝
摘要: https://www.cnblogs.com/work115/p/5619541.html#4236963
阅读全文
posted @ 2020-02-11 15:42 爽歪歪666
阅读(86)
评论(0)
推荐(0)
编辑
2020年2月5日
Python 单链表的初始化,赋值,输出
摘要: Python 单链表的初始化,赋值,输出 https://blog.csdn.net/ganghaodream/article/details/99682648
阅读全文
posted @ 2020-02-05 18:50 爽歪歪666
阅读(924)
评论(0)
推荐(0)
编辑
2020年2月3日
机器学习算法
摘要: 轻松看懂机器学习十大常用算法(附实例) 随机森林 一个更容易理解算法的例子 想象一下,一个名叫安德鲁的人,想知道一年的假期旅行中他应该去哪些地方。他会向了解他的朋友们咨询建议。 起初,他去寻找一位朋友,这位朋友会问安德鲁他曾经去过哪些地方,他喜欢还是不喜欢这些地方。基于这些回答就能给安德鲁一些建议,
阅读全文
posted @ 2020-02-03 16:41 爽歪歪666
阅读(144)
评论(0)
推荐(0)
编辑
2020年1月12日
GAN的数学原理
摘要: KL散度(Kullback–Leibler divergence):用于刻画概率分布Q拟合概率分布P的程度,P为真实数据的概率分布,Q为随机噪声生成数据的概率分布,对抗的目的是让Q充分拟合P,如果Q拟合P不充分,就会产生信息损耗,整个信息损耗就是P和Q的KL散度。 离散的概率分布公式定义: 连续的概
阅读全文
posted @ 2020-01-12 16:48 爽歪歪666
阅读(395)
评论(0)
推荐(0)
编辑
2020年1月10日
数据集下载链接
摘要: OCR数据集ICDAR2013-2019 参考博客: https://blog.csdn.net/weixin_39461307/article/details/95200935
阅读全文
posted @ 2020-01-10 16:47 爽歪歪666
阅读(346)
评论(0)
推荐(0)
编辑
2020年1月9日
图像处理-skimage-滤波-分割
摘要: 转载链接: https://www.cnblogs.com/wangxiaocvpr/p/11656589.html 图像简单滤波 对图像进行滤波,可以有两种效果:一种是平滑滤波,用来抑制噪声;另一种是微分算子,可以用来检测边缘和特征提取。skimage库中通过filters模块进行滤波操作。1、s
阅读全文
posted @ 2020-01-09 21:26 爽歪歪666
阅读(1970)
评论(0)
推荐(0)
编辑
sklearn-Kmeans
摘要: Kmeans,使用sklearn实现 1 from sklearn.cluster import KMeans 2 import numpy as np 3 X = np.array([[1, 2], [1, 4], [1, 0], 4 [10, 2], [10, 4], [10, 0]]) 5 k
阅读全文
posted @ 2020-01-09 15:54 爽歪歪666
阅读(172)
评论(0)
推荐(0)
编辑
2020年1月3日
感受野
摘要: 神经网络中感受野的定义:卷积神经网络的每一层输出的特征图(Feature ap)上的像素点在原图像上映射的区域大小。 参考链接 https://zhuanlan.zhihu.com/p/23358015 计算过程: 例如,有5次卷积,每次kenalsize=(3,3),padding=0,strid
阅读全文
posted @ 2020-01-03 15:54 爽歪歪666
阅读(131)
评论(0)
推荐(0)
编辑
pytorch-detach
摘要: 1 import torch 2 from torch.autograd import Variable 3 4 torch.random.manual_seed(1) 5 w1 = torch.Tensor([2]) # 认为w1 与 w2 是函数f1 与 f2的参数 6 print('w1',w
阅读全文
posted @ 2020-01-03 10:27 爽歪歪666
阅读(176)
评论(0)
推荐(0)
编辑
上一页
1
···
5
6
7
8
9
10
11
12
13
···
15
下一页