上一页 1 ··· 4 5 6 7 8 9 10 11 下一页
摘要: 品味ZooKeeper之Watcher机制 本文思维导图如下: 前言 Watcher机制是zookeeper最重要三大特性 数据节点Znode+Watcher机制+ACL权限控制 中的其中一个,它是zk很多应用场景的一个前提,比如集群管理、集群配置、发布/订阅。 Watcher机制涉及到客户端与服务 阅读全文
posted @ 2018-03-12 22:44 那一抹风 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 品味ZooKeeper之纵古观今 本章思维导图 这一系列主要是从整体到细节来品味Zookeeper,先从宏观来展开,介绍zookeeper诞生的原因,接着介绍整体设计框架,接着是逐个细节击破。 本章是首篇,主要是探究zookeeper的由来和整体框架,同时是一些自己的观点,本人也是在学习大数据的路上 阅读全文
posted @ 2018-03-12 22:43 那一抹风 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 深层神经网络 深层神经网络的组成如图,这里主要是深层神经网络符号的定义。 为什么要用深层神经网络,有什么好处?这里主要是分层的思想。在软件工程中,如果问题遇到困难,一般是通过“加多”一层的方法来解决,通过分层的思想,把每一层的功能解耦。方便整个网络的搭建,方便开发和方便对问题的人脑模拟。 再看这图。 阅读全文
posted @ 2018-02-22 00:23 那一抹风 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 浅层神经网络 1.激活函数 在神经网络中,激活函数有很多种,常用的有sigmoid()函数,tanh()函数,ReLu函数(修正单元函数),泄露ReLu(泄露修正单元函数)。它们的图形如下: sigmoid()激活函数,范围是y属于{0, 1},所以0<= y <=1。但是sigmoid函数平均收敛 阅读全文
posted @ 2018-02-20 21:26 那一抹风 阅读(417) 评论(0) 推荐(0) 编辑
摘要: 浅层神经网络 初步了解了神经网络是如何构成的,输入+隐藏层+输出层。一般从输入层计算为层0,在真正计算神经网络的层数时不算输入层。隐藏层实际就是一些算法封装成的黑盒子。在对神经网络训练的时候,就是对神经网络的神经元求出最合适的参数。 从这图也也看出,每层神经网络的单个神经元就是一些算法计算。 并且是 阅读全文
posted @ 2018-02-19 23:57 那一抹风 阅读(302) 评论(0) 推荐(0) 编辑
摘要: 神经网络基础 1.图计算 计算时有两种方法:正向传播和反向传播。正向传播是从底层到顶层的计算过程,逐步推出所求公式。反向传播是从顶层到底层,从已知的式子求出因变量的影响关系。 在这里用到的反向传播算法就是为了通过似然函数(成本函数)来确定要计算的参数。 在这里,logistic回归应用了反向传播,主 阅读全文
posted @ 2018-02-18 21:40 那一抹风 阅读(300) 评论(0) 推荐(0) 编辑
摘要: 深度学习概论 1.什么是神经网络? 2.用神经网络来监督学习 3.为什么神经网络会火起来? 1.什么是神经网络? 深度学习指的是训练神经网络。通俗的话,就是通过对数据的分析与计算发现自变量与因变量的映射关系(神经网络模型),这个映射关系可以是单层(一个神经元),也可以是网络(多个神经元),此过程可称 阅读全文
posted @ 2018-02-15 16:06 那一抹风 阅读(501) 评论(0) 推荐(0) 编辑
摘要: 1.什么是回归? 2.回归的类型有哪些? 3.线性回归的分析 4.总结 1.什么是回归? 回归分析是在一系列的已知或能通过获取的自变量与因变量之间的相关关系的基础上,建立变量之间的回归方程,把回归方程作为算法模型,通过其来实现对新自变量得出因变量的关系。因此回归分析是实用的预测模型或分类模型。 凡事 阅读全文
posted @ 2018-02-14 17:45 那一抹风 阅读(10469) 评论(0) 推荐(4) 编辑
摘要: 《统计学习》——感知机 本文不是像网上大多数的博文那样,洋洋洒洒的写一大篇文章,只是记录下学习机器学习的一些总结与心得,志在总结与和同道中人一起讨论,分享各自的想法。 1.何为感知机? 我们在学习机器学习的时候,基本都是从感知机开始的,为什么?因为它的思想较为易懂和容易实现,而且对于一般的问题(如二 阅读全文
posted @ 2018-02-07 22:46 那一抹风 阅读(449) 评论(0) 推荐(0) 编辑
摘要: 转载自 刘建平Pinard https://www.cnblogs.com/pinard/p/5970503.html 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结 阅读全文
posted @ 2018-02-05 13:58 那一抹风 阅读(617) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 下一页