上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 69 下一页
摘要: vim常用命令之多行注释和多行删除vim中多行注释和多行删除命令,这些命令也是经常用到的一些小技巧,可以大大提高工作效率。 1.多行注释: 1). 首先按esc进入命令行模式下,按下Ctrl + v,进入列(也叫区块)模式; 2). 在行首使用上下键选择需要注释的多行; 3). 按下键盘(大写)“I 阅读全文
posted @ 2019-02-15 10:54 静悟生慧 阅读(6959) 评论(0) 推荐(0) 编辑
摘要: 转自 简书技术博客:https://www.jianshu.com/p/a3b4f61d4747 mkdir -p ~/.ssh echo "{你的id_rsa.pub中的所有内容}" >> ~/.ssh/authorized_keys chmod 700 ~/.ssh chmod 600 ~/.s 阅读全文
posted @ 2019-02-15 10:52 静悟生慧 阅读(13784) 评论(0) 推荐(0) 编辑
摘要: 单个汉字书法识别经验: https://cloud.tencent.com/developer/article/1142927 文化传承—汉字书法多场景识别 https://www.datafountain.cn/competitions/334/details/rank?sch=1420&page 阅读全文
posted @ 2019-02-14 09:29 静悟生慧 阅读(1696) 评论(0) 推荐(0) 编辑
摘要: .dcm文件是DICOM(Digital Imaging and Communications in Medicine)即医学数字成像和通信中记录医学图像和相关信息的文件,在用于医学图像处理的时候我们需要将·.dcm文件中的图像信息读取到python程序中来,下面展示了一个简单的示例。 安装pydi 阅读全文
posted @ 2019-02-13 15:37 静悟生慧 阅读(7170) 评论(0) 推荐(0) 编辑
摘要: 11月20日,有光学字符识别(OCR)领域“奥斯卡”之称的国际文档分析与识别大会(ICDAR)数据集最新结果公布,中国高校及企业包揽排行榜前五。 ICDAR2015数据集前五名及框架名称分别是:云从科技(Pixel-Anchor)、南京大学与南京理工大学(PSENet)、旷视科技(Mask Text 阅读全文
posted @ 2019-01-31 17:30 静悟生慧 阅读(405) 评论(0) 推荐(0) 编辑
摘要: 训练数据处理: 天池ICPR2018和MSRA_TD500两个数据集: 1)天池ICPR的数据集为网络图像,都是一些淘宝商家上传到淘宝的一些商品介绍图像,其标签方式参考了ICDAR2015的数据标签格式,即一个文本框用4个坐标来表示,即左上、右上、右下、左下四个坐标,共八个值,记作[x1 y1 x2 阅读全文
posted @ 2019-01-31 12:12 静悟生慧 阅读(11152) 评论(0) 推荐(0) 编辑
摘要: https://arxiv.org/pdf/1705.10513.pdf 论文阅读笔记: https://www.cnblogs.com/liaohuiqiang/p/9694277.html https://blog.csdn.net/molong1208/article/details/7808 阅读全文
posted @ 2019-01-23 10:18 静悟生慧 阅读(797) 评论(0) 推荐(0) 编辑
摘要: 在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wasserstein GAN》却在Reddit的Machine Learning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014年Ian Goodfell 阅读全文
posted @ 2019-01-22 17:48 静悟生慧 阅读(57163) 评论(11) 推荐(14) 编辑
摘要: 1. 背景GAN在之前发的文章里已经说过了,虽然现在GAN的变种越来越多,用途广泛,但是它们的对抗思想都是没有变化的。简单来说,就是在生成的过程中加入一个可以鉴别真实数据和生成数据的鉴别器,使生成器G和鉴别器D相互对抗,D的作用是努力地分辨真实数据和生成数据,G的作用是努力改进自己从而生成可以迷惑D 阅读全文
posted @ 2019-01-21 18:19 静悟生慧 阅读(3899) 评论(0) 推荐(1) 编辑
摘要: 策略梯度(Policy gradient)是所有基于策略搜索的强化学习算法的基础,就像MDP是所有强化学习问题的基础一样。 后续提出的算法(如Actor-Critic、TRPO、PPO、DPG)都是针对策略梯度算法的缺陷提出改进,所以理解策略梯度的各种细节十分必要。 为什么要用基于策略的学习? 1) 阅读全文
posted @ 2019-01-21 15:35 静悟生慧 阅读(2060) 评论(0) 推荐(0) 编辑
上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 69 下一页