03 2018 档案

摘要:在StyleAI上厚积了这么长时间,憋了这么久,本来想憋个更大的,不过还是薄发一次的好。三、直接使用别人的工程文章:Android学习之客户端上传图片到服务器下载地址:https://download.csdn.net/download/wlj142/... 阅读全文
posted @ 2018-03-28 16:57 wishchin 阅读(229) 评论(0) 推荐(0) 编辑
摘要:项目地址:https://pjreddie.com/darknet/yolo/ mAP提升了不少,在VS上试一把 V3 的权值:https://pjreddie.com/media/files/y... 阅读全文
posted @ 2018-03-27 15:06 wishchin 阅读(150) 评论(0) 推荐(0) 编辑
摘要:机器人是否能应用于服务最终还是那两条腿值多少钱,而与人交互,能真正地做“服务”工作,还是看那两条胳膊怎么工作。大脑的智能化还是非常遥远的,还是先把感受器和效应器做好才是王道。 关于强化学习,根据Agent对策略的主动性不同划分... 阅读全文
posted @ 2018-03-26 11:02 wishchin 阅读(272) 评论(0) 推荐(0) 编辑
摘要:参考第一个回答:如何评价DeepMind最新提出的RelationNetWork 参考链接:Relation Network笔记 ,暂时还没有应用到场景中 LiFeifei阿姨的课程:CV与ML课程在线... 阅读全文
posted @ 2018-03-23 14:12 wishchin 阅读(2088) 评论(0) 推荐(0) 编辑
摘要:对于FCN-SceneParse网络,最后卷积生成N个类别的maps,每个Map都得到图像所有点的单类概率。MaskRCNN的结构与FCN不相同。 参考三个文章: Detectron总结1:Blob的生成 和 generate ... 阅读全文
posted @ 2018-03-23 13:20 wishchin 阅读(542) 评论(0) 推荐(0) 编辑
摘要:PointNet++是在PointNet上做出了改进,考虑了点云局部特征提取,从而更好地进行点云分类和分割。 先简要说一下PointNet: PointNet,其本质就是一种网络结构,按一定的规则输入点云数据,经过一层层地计... 阅读全文
posted @ 2018-03-22 18:05 wishchin 阅读(5805) 评论(0) 推荐(0) 编辑
摘要:MaskXRCnn俨然成为一个现阶段最成功的图像检测分割网络,关于MaskXRCnn的介绍,需要从MaskRCNN看起。 当然一个煽情的介绍可见:何恺明团队推出Mask^X R-CNN,将实例分割扩展到3000类。 Mask... 阅读全文
posted @ 2018-03-22 17:46 wishchin 阅读(1590) 评论(0) 推荐(0) 编辑
摘要:原文链接: 浅析c++中的类型转换--reinterpret_cast 转换reinterpret_cast作用为: 允许将任何指针转换为任何其他指针类型。 也允许将任何整数类型转换为任何指针类型以及反向转换。看着上面的描述就有种放浪形骸的赶脚。更会让人不寒而栗,太... 阅读全文
posted @ 2018-03-22 15:06 wishchin 阅读(423) 评论(0) 推荐(0) 编辑
摘要:终于把点云单侧面投影正射投影的代码写完了,为一个阶段,主要使用平面插值方法,且只以XOY平面作为的正射投影面。有些凑合的地方,待改进。 方法思路:使用Mesh模型,对每一个表面进行表面重建。借助OpenCV Mat类型对投影平面进行内点判... 阅读全文
posted @ 2018-03-22 15:02 wishchin 阅读(4835) 评论(0) 推荐(0) 编辑
摘要:参考链接:三维空间中的平面方程 这个链接是错误的: http://blog.csdn.net/PengPengBlog/article/details/52774421 //获取平面方程//Ax + By + Cz + D... 阅读全文
posted @ 2018-03-22 11:11 wishchin 阅读(2000) 评论(0) 推荐(0) 编辑
摘要:MIT Scene Parsing Benchmark简介 Scene parsing is to segment and parse an image into different image regions associated with seman... 阅读全文
posted @ 2018-03-16 15:38 wishchin 阅读(372) 评论(0) 推荐(0) 编辑
摘要:NVIDIA作为老牌显卡厂商,在AI领域深耕多年。功夫不负有心人,一朝AI火,NVIDIA大爆发,NVIDIA每年送给科研院所和高校的大量显卡,大力推广Physix和CUDA,终于钓了产业的大鱼。 由弱到强理一下NVIDIA的现有产品线,在A... 阅读全文
posted @ 2018-03-16 11:49 wishchin 阅读(2170) 评论(0) 推荐(0) 编辑
摘要:整理一下资源,不过最好还是根据书上的理论好好推导一下.....文章链接:Deep Learning 最优化方法之SGD 72615436本文是Deep Learning 之 最优化方法系列文章 整个优化系列文章列表:Deep Learning 之 最优化方法Dee... 阅读全文
posted @ 2018-03-15 17:58 wishchin 阅读(999) 评论(0) 推荐(0) 编辑
摘要:当一个CNN用于另一个领域,就使用到了迁移学习。迁移学习是一种用于模型领域泛化和扩展的工具。 文章链接:独家 | 一文读懂迁移学习(附学习工具包) 参考:当深度学习成为过去,迁移学习才是真正的未来? ... 阅读全文
posted @ 2018-03-15 17:24 wishchin 阅读(880) 评论(0) 推荐(0) 编辑
摘要:在测试MIT Scene Parsing Benchmark (SceneParse150)使用FCN网络时候,遇到Caffe错误。 遇到错误:不可识别的网络层crop 网络层 CreatorRegistry&... 阅读全文
posted @ 2018-03-14 09:56 wishchin 阅读(136) 评论(0) 推荐(0) 编辑
摘要:在使用conda之后,总是不能直接使用 conda install 命令,需要把codna添加到系统路径,取代默认Python。在~/.bashrc中,添加# added by Anaconda2 installerexport PATH="/hom... 阅读全文
posted @ 2018-03-11 14:17 wishchin 阅读(765) 评论(0) 推荐(0) 编辑
摘要:为何不使用C++版本FCN获取最后的分割掩模,何必要使用python呢!因此需要获取网络最后层的featureMaps,featureMaps的结果直接对应了segmentation的最终结果,可以直接用于掩模分析。 caffe源码给出了提取中... 阅读全文
posted @ 2018-03-09 17:45 wishchin 阅读(769) 评论(0) 推荐(0) 编辑
摘要:在 caffe里面添加rpn_layer.cpp之后,总是出现 error C2220: warning treated as error - no 'object' file generated 这种错误。 后面跟着: warning 481... 阅读全文
posted @ 2018-03-08 11:46 wishchin 阅读(117) 评论(0) 推荐(0) 编辑
摘要:一、VG数据集 机器学习领域的突破突然让计算机获得了以未曾有的高精度识别图像中物体的能力——几乎达到了让人惊恐的程度。现在的问题是机器是否还能更上层楼,学会理解这些图片中所发生的事件。 Visual Genome的新图像数据库有望推动计... 阅读全文
posted @ 2018-03-05 18:04 wishchin 阅读(692) 评论(0) 推荐(0) 编辑
摘要:市面上暂时还没有找到可以在消费机显卡上实时运行的MaskRCnn,TensorFlow即使是C++版本训练在coco数据集上的模型也是慢的要死,最后不堪忍受,只能放弃。 经历了一些列fuckingDog的复杂配置之后,终于配置成功了。测试一把... 阅读全文
posted @ 2018-03-04 23:51 wishchin 阅读(268) 评论(0) 推荐(0) 编辑
摘要:下边的语句会报 syntax error : 'constant'。static const DimCheckMode STRICT = V1LayerParameter_DimCheckMode_STRICT;static const DimCheckMode PE... 阅读全文
posted @ 2018-03-02 15:18 wishchin 阅读(366) 评论(0) 推荐(0) 编辑
摘要:使用插件下载地址:https://www.microsoft.com/zh-cn/search/DownloadResults.aspx?rf=sp&q=mbcs 阅读全文
posted @ 2018-03-02 15:16 wishchin 阅读(150) 评论(0) 推荐(0) 编辑