05 2022 档案
摘要:Vue子组件向父组件传值this.$emit 1、问题描述2、解决方案:`this.$emit()`方法 1、问题描述 今天碰到了个问题,我有个属性分组的页面,该页面中引入两个子组件,一个是左侧的属性菜单子组件,另一个是新增按钮的对话框组件。右侧为一个表格,显示左边树形菜单中三级分类的所有商品。 但
阅读全文
摘要:GRU实现股票预测 1、GRU(门控循环单元) 1.1 GRU原理 1.2 Tensorflow2描述GRU层 1.3 GRU股票预测 1.3.1 数据源 1.3.2 代码实现 1、GRU(门控循环单元) GRU 由 Cho 等人于 2014 年提出,优化 LSTM 结构。 1.1 GRU原理 门控
阅读全文
摘要:LSTM实现股票预测 1、传统RNN的缺点 2、LSTM(长短时记忆网络) 2.1 原理 2.2 举例 2.3 Tensorflow2描述LSTM层 3、LSTM实现股票预测 3.1 数据源 3.2 代码实现 1、传统RNN的缺点 RNN 面临的较大问题是无法解决长跨度依赖问题,即后面节点相对于跨度
阅读全文
摘要:SimpleRNN实现股票预测 1、数据源 2、代码实现 3、完整代码 原理请查看前面几篇文章。 1、数据源 SH600519.csv 是用 tushare 模块下载的 SH600519 贵州茅台的日 k 线数据,本次例子中只用它的 C 列数据(如图 所示): 用连续 60 天的开盘价,预测第 61
阅读全文
摘要:循环神经网络RNN 1、卷积神经网络与循环神经网络简单对比 2、详解RNN 2.1 循环核 2.2 循环核按照时间步展开 2.3 循环计算层:向输出方向生长 2.4 RNN训练 2.5 Tensorflow2描述循环计算层 2.6 循环计算过程1pre1 2.6.1 独热编码实现 2.6.2 Emb
阅读全文
摘要:关联规则挖掘--Apriori算法 1、关联规则概述 2、置信度、支持度、提升度的概念 3、关联规则挖掘问题 4、Apriori算法 4.1 算法步骤 4.2 先验原理 4.3 寻找最大频繁项的过程 4.4 注意问题:项的连接 5、代码实战 1、关联规则概述 关联规则(Association Rul
阅读全文
摘要:经典卷积网络--InceptionNet 1、InceptionNet网络模型 2、1 * 1的卷积运算是如何降低特征厚度? 3、InceptionNet完整实现(使用CIFAR10数据集) 借鉴点:一层内使用不同尺寸的卷积核,提升感知力(通过 padding 实现输出特征面积一致); 使用 1 *
阅读全文
摘要:经典卷积网络--ResNet残差网络 1、ResNet残差网络 2、tf.keras实现残差结构 3、tensorflow2.0实现ResNet18(使用CIFAR10数据集) 借鉴点:层间残差跳连,引入前方信息,减少梯度消失,使神经网络层数变身成为可能。 1、ResNet残差网络 ResNet 即
阅读全文
摘要:经典卷积网络--VGGNet 1、VGGNet网络模型 2、VGGNet网络模型搭建(使用Tensorflow) 3、完整代码实现(使用CIFAR10数据集) 借鉴点:小卷积核减少参数的同时,提高识别准确率;网络结构规整,适合并行加速。 1、VGGNet网络模型 在 AlexNet 之后,另一个性能
阅读全文
摘要:经典卷积网络--AlexNet 1、AlexNet网络结构 2、使用Tensorflow搭建AlexNet 3、完整代码实现 该网络值得借鉴的地方:激活函数使用 Relu,提升训练速度;Dropout 防止过拟合。 1、AlexNet网络结构 AlexNet 网络诞生于 2012 年,是第一个在图像
阅读全文
摘要:经典卷积网络--LeNet 1、LeNet5网络结构搭建 2、LeNet5代码实现(使用CIFAR10数据集) 借鉴点:共享卷积核,减少网络参数。 1、LeNet5网络结构搭建 LeNet 即 LeNet5,由 Yann LeCun 在 1998 年提出,做为最早的卷积神经网络之一,是许多神经网络架
阅读全文
摘要:卷积神经网络 1、卷积的概念 2、感受野的概念 3、全零填充(padding) 4、Tensorflow描述卷积层 4.1 卷积(Convolutional) 4.2 批标准化(Batch Normalization,BN) 4.3 池化 4.4 Dropout 5、简单CNN实现CIFAR10数据
阅读全文
摘要:使用tf.keras快速搭建神经网络 1、keras介绍 2、搭建神经网络六步法 3、关键函数的用法介绍 4、快速搭建网络实现鸢尾花数据集分类 5、快速实现MNIST手写体数字识别 5.1 MNIST数据集介绍 5.2 查看MNIST数据集结构 5.3 训练MNIST数据集 6、训练Fashion_
阅读全文
摘要:一层神经网络实现鸢尾花数据集分类 1、数据集介绍 2、程序实现 2.1 数据集导入 2.2 数据集乱序 2.3 数据集划分成永不相见的训练集和测试集 3.4 配成[输入特征,标签]对,每次喂入一小撮(batch): 3.5 定义神经网路中所有可训练参数 3.6 超参数设置 3.7 嵌套循环迭代,wi
阅读全文
摘要:TensorFlow基本概念与常见函数 1、基本概念 2、数据类型 3、如何创建一个Tensor? 3.1 tf.constant() 3.2 tf. convert_to_tensor() 3.3 可采用不同函数创建不同值的张量 3.4 可采用不同函数创建符合不同分布的张量。 4、常用函数 4.1
阅读全文
摘要:网络优化方法--正则化 正则化 1.1 正则化介绍 1.2 L1正则项与L2正则项的区别 1.3 正则化程序 正则化 1.1 正则化介绍 正则化也叫作规范化,通常用得比较多的方式是 L1 正则化和 L2 正则化。L1 和 L2 正则 化的使用实际上就是在普通的代价函数(例如均方差代价函数或交叉熵代价
阅读全文
摘要:网络优化方法--Dropout 1、Dropout介绍 2、Dropout程序 1、Dropout介绍 Dropout 也是一种用于抵抗过拟合的技术,它试图改变网络本身来对网络进行优化。我 们先来了解一下它的工作机制,当我们训练一个普通的神经网络时,网络的结构可能如图所示。 Dropout 通常是在
阅读全文
摘要:单层感知器分类案例 1、题目及实现思路 2、代码实战 1、题目及实现思路 题目:假设我们有 4 个 2 维的数据,数据的特征分别是(3,3),(4,3),(1,1),(2,1)。 (3,3),(4,3) 这两个数据的标签为 1, (1,1),(2,1)这两个数据的标签为-1。 构建神经网络来进行分类
阅读全文
摘要:单层感知器 1、单层感知器介绍 2、单层感知器计算示例 3、单层感知器的另一种表达形式 4、单层感知器的学习规则 4.1 学习规则介绍 4.2 单层感知器的学习规则计算 5、代码实战 5.1 单层感知器学习规则计算举例 5.1.1 简单的实现方式 5.1.2 用矩阵计算实现 1、单层感知器介绍 受到
阅读全文
摘要:分布式基础概念总结 分布式基础概念2.1 微服务2.2 集群&分布式节点2.3 远程调用2.4 负载均衡2.5 服务注册于发现2.6 服务配置中心2.7 服务熔断&服务降级2.8 API网关 项目笔记来自于尚硅谷的谷粒商城视频教程:视频链接 分布式基础概念 2.1 微服务 微服务架构风格,就像是把一
阅读全文