2019年4月14日

【代码问题】MatConvNet+VS2017编译找不到cl.exe错误

摘要: 用vl_compilenn做普通的CPU编译报错: 'cl.exe' 不是内部或外部命令,也不是可运行的程序 或批处理文件。 错误使用 vl_compilenn>check_clpath (line 656)Unable to find cl.exe 环境:Win10+VS2017+Matlab20 阅读全文

posted @ 2019-04-14 15:26 博闻强记2010 阅读(3364) 评论(0) 推荐(0) 编辑

2019年3月24日

CAFFE安装笔记【windows和ubuntu】

摘要: 第一部分是windows下安装caffe的心得;第二部分是ubuntu下安装caffe的心得: 第一部分:【Win10+VS2017环境】 老版的caffe在BVLC的github上已经找不到,如果要想下载老版caffe可以下载微软的caffe版本:https://github.com/Micros 阅读全文

posted @ 2019-03-24 16:22 博闻强记2010 阅读(3230) 评论(0) 推荐(0) 编辑

2019年1月31日

【TensorFlow】tfdbg调试注意事项

摘要: 按照网上的帖子开启tfdbg调试,可能因为没有安装curses和pyreadline包导致失败。 运行 python test001.py --debug 报错: ModuleNotFoundError: No module named '_curses' ModuleNotFoundError: 阅读全文

posted @ 2019-01-31 22:23 博闻强记2010 阅读(429) 评论(0) 推荐(0) 编辑

2019年1月25日

【DevExpress】邮箱制作小结

摘要: 利用DevExpress的RichEditControl控件可以发送包含图片的邮件。但存在一个问题。RichEdit直接将图片解析成base64码包含在RichEdit的HtmlText中,这导致客户端发送到服务器时,邮件内容串行化超过容量导致发送失败。 解决的办法参考帖子:https://www. 阅读全文

posted @ 2019-01-25 09:49 博闻强记2010 阅读(412) 评论(0) 推荐(0) 编辑

2019年1月23日

【C#】stream图像转byte的问题

摘要: 上述代码中linkList是某种对象的list,该对象的成员:stream是一个stream类型数据。 开始我忘记设置 linkList[ii].stream.Position = 0; 出来的bytes总是全0. 也就是stream的Read方法是从stream流结束的地方才开始读的,后来设置Po 阅读全文

posted @ 2019-01-23 15:50 博闻强记2010 阅读(182) 评论(0) 推荐(0) 编辑

2019年1月18日

【Python】SciKit-Learn包安装问题

摘要: pip install scikit-learn 如果失败的话,可以考虑直接升级pip 我原先的pip版本是10.0.1 安装失败 升级pip到18.1后,在安装就成功了 阅读全文

posted @ 2019-01-18 21:57 博闻强记2010 阅读(214) 评论(0) 推荐(0) 编辑

2018年12月4日

【SQLServer】附加数据库失败

摘要: 一个参考:https://blog.csdn.net/zjx86320/article/details/25562361 如果类似Administrator、Everyone等都依照网上的权限改过之后。 考虑删除掉*.ldf文件后重新附加。可能会成功。 阅读全文

posted @ 2018-12-04 12:16 博闻强记2010 阅读(462) 评论(0) 推荐(0) 编辑

2018年9月22日

【DevExpress】GridView的RowClick事件禁用Checkbox选择的解决办法

摘要: 添加GridView的RowCellClick事件,代码如下 阅读全文

posted @ 2018-09-22 17:10 博闻强记2010 阅读(607) 评论(0) 推荐(0) 编辑

2018年5月12日

【MatConvNet代码解析】 vl_nnsoftmaxloss

摘要: 背景知识:http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 假设softmax层的输入(softmax前一次的输出),或者理解为一般分类器的得分f(x)=</theta,x>中的/theta可以随便减一 阅读全文

posted @ 2018-05-12 11:25 博闻强记2010 阅读(431) 评论(0) 推荐(0) 编辑

Logistic Loss的简单讨论

摘要: 首先应该知道Logistic Loss和Crossing Entropy Loss本质上是一回事。 所以所谓的SoftMaxLoss就是一般二分类LogisitcLoss的推广。之所以在网络中采取这种损失,而不是均方误差的原因是LogisticLoss更易于求导:采用交叉熵做损失要比均方误差更合理。 阅读全文

posted @ 2018-05-12 10:43 博闻强记2010 阅读(8375) 评论(0) 推荐(0) 编辑

导航