会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
枫飞飞
上一页
1
···
15
16
17
18
19
20
21
22
23
···
66
下一页
高并发架构系列:Redis并发竞争key的解决方案详解
摘要: https://blog.csdn.net/ChenRui_yz/article/details/85096418 https://blog.csdn.net/ChenRui_yz/article/list/2? -good blog 需求由来1.Redis高并发的问题Redis缓存的高性能有目共睹
阅读全文
posted @ 2019-05-23 18:21 枫飞飞
阅读(972)
评论(0)
推荐(0)
编辑
Redis锁机制的几种实现方式
摘要: 1. redis加锁分类 redis能用的的加锁命令分表是INCR、SETNX、SET 2. 第一种锁命令INCR 这种加锁的思路是, key 不存在,那么 key 的值会先被初始化为 0 ,然后再执行 INCR 操作进行加一。 然后其它用户在执行 INCR 操作进行加一时,如果返回的数大于 1 ,
阅读全文
posted @ 2019-05-23 17:54 枫飞飞
阅读(38169)
评论(0)
推荐(4)
编辑
用大白话谈谈XSS与CSRF
摘要: https://segmentfault.com/a/1190000007059639 安全 javascript xss csrf 23.5k 次阅读 · 读完需要 10 分钟 安全 javascript xss csrf 这两个关键词也是老生常谈了,但是还总是容易让人忘记与搞混~。XSS与CSR
阅读全文
posted @ 2019-05-22 10:21 枫飞飞
阅读(469)
评论(0)
推荐(0)
编辑
Lenet5设计理解——咬文嚼字系列
摘要: 最近在看lecun大神的这篇经典文章:“Gradient-Based Learning Appliedto Document Recognition”,文章较老,但是对于lenet5的一些基础概念讲解浅显易懂,本文主要对lenet5的架构和设计讲一些我的粗浅理解,对一些问题写一些我的看法,同时我也提
阅读全文
posted @ 2019-05-21 16:07 枫飞飞
阅读(340)
评论(0)
推荐(0)
编辑
深度学习500问
摘要: https://github.com/scutan90/DeepLearning-500-questions
阅读全文
posted @ 2019-05-20 18:58 枫飞飞
阅读(412)
评论(0)
推荐(0)
编辑
cnn层次
摘要: 5.1.1 输入层 输入层(Input Layer)通常是输入卷积神经网络的原始数据或经过预处理的数据,可以是图像识别领域中原始三维的多彩图像,也可以是音频识别领域中经过傅利叶变换的二维波形数据,甚至是自然语言处理中一维表示的句子向量。以图像分类任务为例,输入层输入的图像一般包含RGB三个通道,
阅读全文
posted @ 2019-05-20 18:46 枫飞飞
阅读(418)
评论(0)
推荐(0)
编辑
tf.nn.softmax_cross_entropy_with_logits的用法
摘要: 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l
阅读全文
posted @ 2019-05-20 16:28 枫飞飞
阅读(173)
评论(0)
推荐(0)
编辑
批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
摘要: 梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。其中小批量梯度下降法也常
阅读全文
posted @ 2019-05-20 14:59 枫飞飞
阅读(338)
评论(0)
推荐(0)
编辑
全连接理解2
摘要: (名称:全连接。意思就是输出层的神经元和输入层的每个神经元都连接)在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量,这是怎么来的呢?目的何在呢?举个例子:最后的两列小圆球就是两个全连接层,在最后一层卷积结束后,进行了最后一次池化,输出了20个12
阅读全文
posted @ 2019-05-18 12:10 枫飞飞
阅读(329)
评论(0)
推荐(0)
编辑
深入理解卷积层,全连接层的作用意义
摘要: 有部分内容是转载的知乎的,如有侵权,请告知,删除便是,但由于是总结的,所以不一一列出原作者是who。再次感谢,也希望给其他小白受益。首先说明:可以不用全连接层的。理解1:卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。理解2:从卷
阅读全文
posted @ 2019-05-18 12:02 枫飞飞
阅读(4512)
评论(0)
推荐(0)
编辑
上一页
1
···
15
16
17
18
19
20
21
22
23
···
66
下一页
导航
博客园
首页
联系
订阅
管理
公告