2017年6月24日

摘要: 解决cudnn问题:Loaded runtime CuDNN library: 5005 (compatibility version 5000) but source was compiled with 5103 (compatibility version 5100). 问题产生的原因是 caf 阅读全文
posted @ 2017-06-24 10:31 unclelin 阅读(364) 评论(0) 推荐(0) 编辑
摘要: 问题背景: 今天想把自己的数据集开放给同事a,只允许其读,不允许写。 操作: step1: 查看该文件夹属于哪一个用户,哪一个组 ls 文件夹 -lstep2: usermod -a -G 指定文件夹的组名 要分配的用户名step3: chmod 754 指定文件夹名 延伸: 1 权限的设置 chm 阅读全文
posted @ 2017-06-24 09:56 unclelin 阅读(7651) 评论(0) 推荐(0) 编辑

2017年6月11日

摘要: 在做tensorflow模型转caffe模型时,遇到了几个坑。其中之一就是caffe的padding方式和tensorflow的padding方式有很大的区别,导致每一层的输出都无法对齐,让我一度怀疑转换模型的代码是错的。 卷积操作输出的形状计算公式是这样的: output_shape = (ima 阅读全文
posted @ 2017-06-11 10:25 unclelin 阅读(5623) 评论(4) 推荐(0) 编辑

2017年3月17日

摘要: 在面美团实习的时候,面试官问了这道蓄水池问题:给定一个链表,长度未知(但是大于k),你只能遍历一次,要求随机挑出k个节点。 刚听完题目的我是一脸蒙蔽的,what is the fuck? 长度未知?遍历一遍?那每个节点被挑选的概率如何计算? 我当时的答案是遍历两遍链表。 后来想想这样的确很蠢,蓄水池 阅读全文
posted @ 2017-03-17 12:35 unclelin 阅读(621) 评论(0) 推荐(0) 编辑

2017年3月15日

摘要: 这系列题的背景:有个小偷要偷钱,每个屋内都有一定数额的钱,小偷要发家致富在北京买房的话势必要把所有屋子的钱都偷了,但是屋子之内装了警报器,在一定条件下会触发朝阳群众的电话,所以小偷必须聪明一点,才能保证偷到的钱最多。 问题i:这些屋子排成一排,连续两家失窃就会触发朝阳群众电话 问题ii:这些屋子两成 阅读全文
posted @ 2017-03-15 13:05 unclelin 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 这三道题都是同一个背景下的变形:给定一个数组,数组里的值表示当日的股票价格,问你如何通过爱情买卖来发家致富? best time to buy and sell stock i: 最多允许买卖一次 best time to buy and sell stock ii: 不限制买卖次数 best ti 阅读全文
posted @ 2017-03-15 12:31 unclelin 阅读(170) 评论(0) 推荐(0) 编辑

2017年2月21日

摘要: Dropout是深度学习中防止过拟合的一项非常常见的技术,是hinton大神在12年提出的一篇论文里所采用的方法。有传言hinton大神的数学功底不是很好,所以他所提出的想法背后的数学原理并不是很复杂,往往采用简单但是非常巧妙的方法而取得非常好的效果。Dropout就是这么一种牛逼的方法。 工作原理 阅读全文
posted @ 2017-02-21 12:54 unclelin 阅读(867) 评论(0) 推荐(0) 编辑
摘要: 最近用OCR识别身份证,用的tesseract引擎。但是google自带的中文库是在太慢了,尤其是对于性别、民族这样结果可以穷举的特征信息而言,完全可以自己训练字库。自己训练字库不仅可以提高识别速度,而且可以提高识别精度! 在训练过程中,常见的error有以下几种: 1)index >= 0 && 阅读全文
posted @ 2017-02-21 12:11 unclelin 阅读(516) 评论(0) 推荐(0) 编辑

2017年2月9日

摘要: Step1:安装homebrew 如果电脑上有,暂时不装。但是在step2(或者其他需要brew的情况)加完sudo之后如果仍然报错,就需要重新安装homebrew。在终端里输入如下命令: ruby -e “$(curl -fsSL https://raw.githubusercontent.com 阅读全文
posted @ 2017-02-09 23:20 unclelin 阅读(1152) 评论(0) 推荐(0) 编辑
摘要: 深度学习由于超参数的个数比较多,训练样本数目相对超参数来说略显不足,一不小心就容易发生过拟合。从本质上来说,过拟合是因为模型的学习能力太强,除了学习到了样本空间的共有特性外,还学习到了训练样本集上的噪声。因为这些噪声的存在,导致了模型的泛化性能下降。在深度学习中如何克服过拟合的问题呢?一般来说有以下 阅读全文
posted @ 2017-02-09 23:19 unclelin 阅读(4800) 评论(0) 推荐(0) 编辑

导航