Lv.的博客

11 2019 档案

摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/mashuai720/article/details/83342264 使用 bat 脚本实现 mysql 数据库自动备份数据 背景为了预防 阅读全文
posted @ 2019-11-16 20:42 Avatarx 编辑
摘要:https://blog.csdn.net/owenfy/article/details/80022586 阅读全文
posted @ 2019-11-16 09:35 Avatarx 编辑
摘要:通过Photoshop的拾色器,我们知道表征颜色的模型的不止一种,本文将系统并且详细讨论这四种模型(HSV、LAB、RGB和CMYK)之间的联系以及应用。本文部分章节整合了多位优秀博主的博客(链接见本文末尾),并对其表示感谢。文章中模型转换使用的是C式伪代码而不是数学公式,这样更便于编程人士理解。 阅读全文
posted @ 2019-11-15 11:11 Avatarx 编辑
摘要:卷积神经网络的不变性 不变性的实现主要靠两点:大量数据(各种数据);网络结构(pooling)不变性的类型 1)平移不变性 卷积神经网络最初引入局部连接和空间共享,就是为了满足平移不变性。 关于CNN中的平移不变性的来源有多种假设。 一个想法是平移不变性是由于连续卷积层中神经元的感受野尺寸增加。另一 阅读全文
posted @ 2019-11-15 10:50 Avatarx 编辑
摘要:调用static_rnn实际上是生成了rnn按时间序列展开之后的图。打开tensorboard你会看到sequence_length个rnn_cell stack在一起,只不过这些cell是share weight的。因此,sequence_length就和图的拓扑结构绑定在了一起,因此也就限制了每 阅读全文
posted @ 2019-11-15 10:43 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/program_developer/article/details/80737724 “微信公众号” 本文同步更新在我的微信公众号里,地址: 阅读全文
posted @ 2019-11-15 10:32 Avatarx 编辑
摘要:之前在几篇博客中说到了权重共享,但都觉得不够全面,这里做个专题,以后有新的理解都在此更新。 1. 减少运算只是锦上添花之前说到权重共享可以减少运算,是的,但这样说好像是可有可无,只是运算量大小的问题,其实不是可有可无的。 2. 权重共享的本质是特征提取之前说到权重就是模板,我们按照一定的模板来与样本 阅读全文
posted @ 2019-11-15 09:25 Avatarx 编辑
摘要:之前在几篇博客中说到了权重共享,但都觉得不够全面,这里做个专题,以后有新的理解都在此更新。 1. 减少运算只是锦上添花之前说到权重共享可以减少运算,是的,但这样说好像是可有可无,只是运算量大小的问题,其实不是可有可无的。 2. 权重共享的本质是特征提取之前说到权重就是模板,我们按照一定的模板来与样本 阅读全文
posted @ 2019-11-15 09:23 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/qq_33690342/article/details/81301624 1、Windows 系统在“运行”对话框中输入dxdiag,点击“ 阅读全文
posted @ 2019-11-14 20:58 Avatarx 编辑
摘要:一、GPU是什么?与显卡是什么关系?安装在什么地方?有单独的GPU板卡吗? GPU就是图像处理芯片,外表与CPU有点相似。显卡的芯片,AMD的一个技术,相当于电脑的处理器CPU,只不过它是显卡的大脑或心脏。GPU是显卡的核心,显卡,则是由GPU、显存、电路板,还有BIOS固件组成的,所以GPU不等于 阅读全文
posted @ 2019-11-14 20:05 Avatarx 编辑
摘要:gpu就是并行处理强大, cpu很多功能gpu都没有。 什么指令流水化, 多进程管理之类的。 gpu没有多少自主处理指令的能力, 基本是指令靠cpu 计算靠gpu。GPU工作原理是cpu 处理指令,遇到需要gpu的地方, 比如矩阵处理, 图像渲染, 会在显存中开辟一个小空间, 然后把这个矩阵打成很多 阅读全文
posted @ 2019-11-14 19:58 Avatarx 编辑
摘要:从思路上说,GPU相当于火车,一个车头带几十节车厢,一下子把成千上万吨货全给你拉目的地;CPU相当于汽车,拉货旅游样样能干。因此,如果单纯比运力,一列火车比得过成百上千辆汽车;但如果几百人有几百个目的地,你再让几十节车厢跑几百趟,把他们一个个送达……这显然就不合适了。 GPGPU不过相当于铺设了更多 阅读全文
posted @ 2019-11-14 19:57 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/mao_xiao_feng/article/details/78003476 <!-- flowchart 箭头图标 勿删 --> 实验环境 阅读全文
posted @ 2019-11-10 09:26 Avatarx 编辑
摘要:卷积函数是卷积神经网络(CNN)非常核心和重要的函数,在搭建CNN时经常会用到,因此较为详细和深入的理解卷积函数具有十分重要的意义。 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None):在给定 阅读全文
posted @ 2019-11-10 09:24 Avatarx 编辑
摘要:转载:https://blog.csdn.net/tz_zs/article/details/75948350 tf.random_normal 从正态分布中输出随机值。 random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=No 阅读全文
posted @ 2019-11-10 09:04 Avatarx 编辑
摘要:原文链接:https://blog.csdn.net/zhangdongren/article/details/83344048 区别如下: tf.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None 阅读全文
posted @ 2019-11-10 08:56 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/xxm524/article/details/74937308 QT字符编码开发中遇到了很多坑,一不小心就会出现中文乱码, 在这里小结一下。 阅读全文
posted @ 2019-11-08 16:47 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/g423tgl234/article/details/52222569 1 window中文GBK编码和Unicode编码转换 //GBK‐ 阅读全文
posted @ 2019-11-08 16:45 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/hacker_Dem_br/article/details/88786661 RGB image 输入的图像有RGB3个channel,假设 阅读全文
posted @ 2019-11-06 20:49 Avatarx 编辑
摘要:https://blog.csdn.net/dongqinglove/article/details/9175863 阅读全文
posted @ 2019-11-05 09:48 Avatarx 编辑
摘要:原文地址:https://finthon.com/learn-cnn-two-tfrecord-read-data/-- 全文阅读5分钟 -- 在本文中,你将学习到以下内容: 将图片数据制作成tfrecord格式 将tfrecord格式数据还原成图片 前言 tfrecord是TensorFlow官方 阅读全文
posted @ 2019-11-03 16:26 Avatarx 编辑
摘要:没有仔细看是否正确,先保存到这里,以后研究一下 一、参考文章:http://bbs.csdn.net/topics/390632657?page=1 setStyleSheet("QTabWidget::pane{border-width:1px;border-color:rgb(48, 104,  阅读全文
posted @ 2019-11-03 14:30 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/liulihuo_gyh/article/details/41321369 代码部分: QFile file(filePath); if ( 阅读全文
posted @ 2019-11-03 14:11 Avatarx 编辑
摘要:1、卷积 1、卷积 1、卷积 当从一个大尺寸图像中随机选取一小块,比如说 8x8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8x8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从 8x8 样本中所学习到的特征跟原本的大尺寸图像作卷积,从而 阅读全文
posted @ 2019-11-02 17:37 Avatarx 编辑
摘要:http://blog.csdn.net/majinlei121/article/details/46742339 http://blog.csdn.net/augusdi/article/details/9028365 缩小图像(或称为下采样(subsampled)或降采样(downsampled 阅读全文
posted @ 2019-11-02 17:20 Avatarx 编辑
摘要:#include <QCoreApplication> 阅读全文
posted @ 2019-11-02 09:16 Avatarx 编辑

点击右上角即可分享
微信分享提示