2019年4月9日

2018.7-2019.4记录

摘要: 1.工作:在某公司做文字检测工作,期间学习了:如何读文献(重视实验部分,尤其对工程实践来说),文字检测常见框架(fast/faster rcnn, yolo2/3,ctpn,attention... ),linux基本操作,工作很辛苦,基本上是996,觉得自己 1.不适合在高压下学习,效率会变得很低 阅读全文

posted @ 2019-04-09 22:09 壮心泯未 阅读(138) 评论(0) 推荐(0) 编辑

2018年5月13日

人工智能未来读后感 ----by RayKurzweil

摘要: 1.大脑新皮质是分层的,大脑作用:识别和预测,底层级的存储,外界的触发激活这些层级并存储新的层级 2.高层级对低层级的预测权重也有影响,比如appl对下一个单词e就有偏向性的预测 3.层级越高越抽象,信息在层级结构中总是呈现向上和向下的双向交流 4.不去同区域层级的联系是具有相似性的(通用算法的可能 阅读全文

posted @ 2018-05-13 17:18 壮心泯未 阅读(227) 评论(0) 推荐(0) 编辑

2018年4月24日

matlab exe

摘要: https://www.cnblogs.com/happyzm/p/6385517.html 阅读全文

posted @ 2018-04-24 19:31 壮心泯未 阅读(110) 评论(0) 推荐(0) 编辑

2018年4月18日

神经网络的基础

摘要: 1.实现直接通过文件夹分类来读取数据集:https://blog.csdn.net/u012193416/article/details/79368855 keras 搭建基础多分类网络:http://blog.sina.com.cn/s/blog_d76227260102wxbj.html ker 阅读全文

posted @ 2018-04-18 14:47 壮心泯未 阅读(174) 评论(0) 推荐(0) 编辑

研究生的论文

摘要: 1.https://ieeexplore.ieee.org/document/8338123/ Variational Fusion of Time-of-Flight and Stereo Data for Depth Estimation Using Edge Selective Joint F 阅读全文

posted @ 2018-04-18 14:44 壮心泯未 阅读(208) 评论(0) 推荐(0) 编辑

2017年12月10日

卷积神经网络经验

摘要: 1. 30卷积+20卷积+20卷积+10全连接 < 20卷积+20卷积+30卷积+10全连接 参数个数,因为后面全连接是相乘的关系,前面是相加的关系 2. BN层在LOSS 不怎么下降时可以起到奇效 3. 随着网络的加深,会出现梯度消失的情况,这就是不一定越深越好,这个时候可以用RESNET,RES 阅读全文

posted @ 2017-12-10 16:18 壮心泯未 阅读(163) 评论(0) 推荐(0) 编辑

2016 滴滴出行数据挖掘-------XGBOOST

摘要: 2016 滴滴出行数据挖掘 XGBOOST 阅读全文

posted @ 2017-12-10 15:46 壮心泯未 阅读(242) 评论(0) 推荐(0) 编辑

2017年9月25日

机器学习总结

摘要: 1.SVM 1.SVM的思想: 最大化几何间隔 阅读全文

posted @ 2017-09-25 22:34 壮心泯未 阅读(301) 评论(0) 推荐(0) 编辑

图像处理常见面试题

摘要: 1.各种边缘检测算子: a.Sobel 检测算子 该算子中引入了类似局部平均的运算,因此对噪声具有平滑作用,能很好的消除噪声的影响。 b. Roberts 算子:. 没有经过图像平滑处理的,因此图像噪声一般得不到很好的抑制 Roberts 算子的定位精度较高,对具有陡峭的低噪声图像 c Prewit 阅读全文

posted @ 2017-09-25 03:23 壮心泯未 阅读(16740) 评论(0) 推荐(0) 编辑

2017年9月11日

剑指offer-笔记

摘要: 1.任意进制间的转换 思想:转换到10进制以后在转换为想要的进制 要点:注意大于10进制的用‘A~Z’来表示 2.非循环和乘除的1+2+3+.....n 思想:利用构造函数+静态变量 要点: 类外初始化静态变量 3.快速排序求第K 大或者中位数 思想:第k大就是排后所在的顺序 要点;快排的时候对en 阅读全文

posted @ 2017-09-11 21:29 壮心泯未 阅读(280) 评论(0) 推荐(0) 编辑

导航