乞力马扎罗的雪顶  

2020年4月17日

摘要: 转载:https://www.cnblogs.com/king-lps/p/9497836.html 1. 总述 Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 2. 损失函数形 阅读全文
posted @ 2020-04-17 22:08 乞力马扎罗的雪顶 阅读(239) 评论(0) 推荐(0) 编辑

2020年4月4日

摘要: 先存个码# -- coding: utf-8 --import numpy as npimport operatordef createDataSet(): # 创建训练集 group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) la 阅读全文
posted @ 2020-04-04 21:00 乞力马扎罗的雪顶 阅读(202) 评论(0) 推荐(0) 编辑
 
摘要: 记录一些面试的题吧,没事自己看看 1.python,c++,java棋盘中的白子进行八连通区域查找,并返回连通区域块数和连通区域分类情况 # encoding=utf8def show(L): # 直观显示用 非本题核心代码 rows = len(L) cols = len(L[0]) for i 阅读全文
posted @ 2020-04-04 11:59 乞力马扎罗的雪顶 阅读(163) 评论(0) 推荐(0) 编辑

2020年3月14日

摘要: 在做工业缺陷检测使用过基于MRCNN的算法效果还不错,这里就讲讲源码的算法思路 论文链接:https://arxiv.org/abs/1703.06870 源码链接:https://github.com/matterport/Mask_RCNN 如果没接触过RCNN系列的算法本人建议时间有限的话就看 阅读全文
posted @ 2020-03-14 10:51 乞力马扎罗的雪顶 阅读(2942) 评论(0) 推荐(0) 编辑

2020年2月18日

摘要: 梯度下降 1.随机梯度下降 2.使用动量的随机梯度下降 参考李宏毅教授的机器学习课程,加入了动量参数之后可以解决一部分局部最小值的问题; 虽然随机梯度下降仍然是非常受欢迎的优化方法,但学习速率有时会很慢。 动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率,小但一致的梯度,或是带 阅读全文
posted @ 2020-02-18 17:29 乞力马扎罗的雪顶 阅读(280) 评论(0) 推荐(0) 编辑

2020年2月17日

摘要: 梯度下降 https://www.jianshu.com/p/c7e642877b0e 反向传播 https://www.jianshu.com/p/96a5ba02bacc 阅读全文
posted @ 2020-02-17 19:01 乞力马扎罗的雪顶 阅读(97) 评论(0) 推荐(0) 编辑
 
摘要: 进程(Process) 是计算机中的程序关于某数据集合上的一次运行活动,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。 在当代面向线程设计的计算机结构中,进程是线程的容器。程序是指令、数据及其组织形式的描述,进程是程序的实体。是计算机中的程序关于某数据集合上的一次运行活动,是系统进行资源 阅读全文
posted @ 2020-02-17 16:13 乞力马扎罗的雪顶 阅读(96) 评论(0) 推荐(0) 编辑
 
摘要: 序言 K-means算法是非监督学习(unsupervised learning)中最简单也是最常用的一种聚类算法,具有的特点是: 对初始化敏感。初始点选择的不同,可能会产生不同的聚类结果 最终会收敛。不管初始点如何选择,最终都会收敛。 K-means算法 实际上,无论是从算法思想,还是具体实现上, 阅读全文
posted @ 2020-02-17 12:22 乞力马扎罗的雪顶 阅读(227) 评论(0) 推荐(0) 编辑