摘要:
Inception V1: https://medium.com/coinmonks/paper review of googlenet inception v1 winner of ilsvlc 2014 image classification c2b3565a64e7 整体: https:// 阅读全文
摘要:
读后感背景 最近看了一篇2018年发表在Cell期刊上的论文,主要是用CNN给一些医学图片做分类。文中在CNN或者深度学习部分并没有很多novel的贡献(当然这是从CS的视角来看),但是既然文章可以被Cell期刊接受,一定有其过人之处。 对于一些CS的同学,可能都更关注CVPR,ICCV或者NIPS 阅读全文
摘要:
读后感背景 工作中要对高分辨率图像(至少1024 $\times$ 1024)进行分类,而且ground truth分类的标准一般都是取决于像素级别的精细local feature(e.g. texture),图像中大致的global feature (e.g. spatial arrangemen 阅读全文
摘要:
"Markdown Cheatsheet on Github" "python里下划线(underscore, _)的作用" "Different Ways to Create Numpy Arrays" "Git and GitHub in a NutShell" "Git Tutorial 非常 阅读全文
摘要:
背景 多分类问题里(单对象单标签),一般问题的setup都是一个输入,然后对应的输出是一个vector,这个vector的长度等于总共类别的个数。输入进入到训练好的网络里,predicted class就是输出层里值最大的那个entry对应的标签。 交叉熵在多分类神经网络训练中用的最多的loss f 阅读全文
摘要:
最近在做一个multilabel classification(多标签分类)的项目,需要一些特定的metrics去评判一个multilabel classifier的优劣。这里对用到的三个metrics做一个总结。 首先明确一下多标签(multilabel)分类和多类别(multiclass)分类的 阅读全文
摘要:
因为看了一篇新论文需要用到EM算法,之前也不是特别了解透彻。 趁着这个机会把大二学的MLE温习一次,然后再看看EM算法。 留个坑等清明节放假写。 Reference: MLE算法:http://fangs.in/post/thinkstats/likelihood/ EM算法:https://www 阅读全文
摘要:
现在要做的东西需要用keras with theano backend在gpu上训练,坑非常多,因为貌似theano都停止更新了,但是follow的project是用theano backend写的,转到tensorflow上难度会很大 (不排除之后转去tensorflow backend的可能性) 阅读全文
摘要:
conda: 在实验室的服务器上安装conda:https://blog.csdn.net/zhiwei2coder/article/details/79865920 (这里要注意实验室的服务器上本来是有conda的,但应该每一个用户自己安一个,这样别人就不会进到你创建的虚拟环境中,这个教程非常棒! 阅读全文
摘要:
最近又回实验室了,开始把空闲将近半年忘记的东西慢慢找回来。先把之前这边用英文写的介绍交叉熵的文章翻译了。 背景 In classification, the most common setup is with one input, and the output is a vector of size 阅读全文