2017年12月22日

caffe test accuracy

摘要: caffe 训练时我们会在log中看到accuracy和loss,这里的accuracy是在val集上得到的。 在训练完得到模型后如果我们想在新的数据上测试并得到accuracy, loss改怎么做? 可以利用trainval.prototxt 文件稍作修改得到一个test.prototxt 修改的 阅读全文

posted @ 2017-12-22 13:59 klitech 阅读(702) 评论(0) 推荐(0) 编辑

2017年12月18日

git使用

摘要: 在环境上安装好git后 s1 git clone http:\\ 拉下项目到本地 s2 修改文件后 git status 查看项目状态 s3 git add . 添加所修改的文件 s4 git commit 提交修改 需要注明修改的内容 s5 git push 阅读全文

posted @ 2017-12-18 13:53 klitech 阅读(84) 评论(0) 推荐(0) 编辑

2017年12月4日

windows中文txt文件放在linux下乱码问题

摘要: 尝试了几种方法 一个是 iconv -f gbk -t utf8 XX.txt > XX.txt.utf8 但是没能成功 。。一直报错cannot convert 另一个是recode gb2312..utf8 XX.txt 成功转码 阅读全文

posted @ 2017-12-04 14:46 klitech 阅读(146) 评论(0) 推荐(0) 编辑

2017年11月9日

caffe command line

摘要: Command Line The command line interface – cmdcaffe – is the caffe tool for model training, scoring, and diagnostics. Run caffe without any arguments f 阅读全文

posted @ 2017-11-09 09:58 klitech 阅读(146) 评论(0) 推荐(0) 编辑

2017年10月12日

Linux一些指令

摘要: 备忘。。 ~/.bashrc 环境变量文件 xshell5 与本机文件传输 rz接受 sz filename 传输 watch -n 2 'nvidia-smi' 监视gpu 状态 wget 下载单个文件 wget http://images.cocodataset.org/zips/train20 阅读全文

posted @ 2017-10-12 16:41 klitech 阅读(111) 评论(0) 推荐(0) 编辑

2017年10月11日

CS231n 学习笔记(3) Back Propagation

摘要: 这节的lecture通篇讲了BP也就是反向传播算法,但是本人看着这节的lecture费劲,虽然是比较简单的例子,但是用了表达式树的图,跟通常见到的神经网络结构有出入。。 所以引用了其他地方的bp解释 个人感觉这个图解释的比较好http://galaxy.agh.edu.pl/~vlsi/AI/bac 阅读全文

posted @ 2017-10-11 17:44 klitech 阅读(142) 评论(0) 推荐(0) 编辑

py-faster-rcnn(旧版caffe)与cudnn6配置出问题解决方案

摘要: 在服务器上配置好caffe环境后想装个faster-rcnn做目标检测用。由于gpu是1080ti所以配的cuda及cudnn都比较新。 安装rbg大神github上进行到make pycaffe时提示cudnn compile出错。 一通搜索后发现是faster-rcnn是默认老版本的caffe支 阅读全文

posted @ 2017-10-11 17:41 klitech 阅读(908) 评论(0) 推荐(0) 编辑

2017年8月22日

新手常见Python运行时错误

摘要: 1)忘记在 if , elif , else , for , while , class ,def 声明末尾添加 :(导致 “SyntaxError :invalid syntax”) 该错误将发生在类似如下代码中: 2)使用 = 而不是 ==(导致“SyntaxError: invalid syn 阅读全文

posted @ 2017-08-22 21:33 klitech 阅读(206) 评论(0) 推荐(0) 编辑

2017年6月27日

CS231n 学习笔记(2) Loss Function and Optimization

摘要: Lecture 2 的最后部分中提到了linear classifier 这里f(x,W) = Wx + b 是score fun 用来计算输入相对于各类的分数。 x为输入,W为权重,b为偏置项。 那么在得到分数之后我们需要一个机制来评价当前的分类器是否理想,于是引入了loss function。 阅读全文

posted @ 2017-06-27 16:12 klitech 阅读(714) 评论(0) 推荐(0) 编辑

2017年6月23日

Briefly introduce what is backpropagation ?

摘要: Backpropagation is a training algorithm used for a multilayer neural networks, it allows for efficient computation of the gradient. The backpropagatio 阅读全文

posted @ 2017-06-23 14:31 klitech 阅读(277) 评论(0) 推荐(0) 编辑

导航