摘要: 1 使用线程池的好处 降低资源消耗:通过重复利用已创建的线程降低线程创建和销毁造成的消耗; 提高响应速度:当任务到达时,任务可以不需要等到线程创建就能立即执行; 提高线程的可管理性:线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。 阅读全文
posted @ 2023-03-19 12:17 little_fat_sheep 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 1 前言 非静态方法的同步锁是当前对象(this)(对象锁) 静态方法的同步锁是当前类的字节码(类锁) 不同的锁之间能并发 2 同一对象内 本节主类与资源类如下: class Resorce{ //资源 static int x=0; static int y=0; } public class M 阅读全文
posted @ 2023-03-19 12:17 little_fat_sheep 阅读(75) 评论(0) 推荐(0) 编辑
摘要: 1 概述 Java Collections 框架中包含了大量的接口及其实现类和操作它们的算法,主要包括列表(List)、集合(Set)、映射(Map),如下: | 接口 | 实现类 | 数据结构 | 初始容量 | 加载因子 | 扩容 | 线程安全 | 允许 key = null | | | | | 阅读全文
posted @ 2023-03-19 12:16 little_fat_sheep 阅读(64) 评论(0) 推荐(0) 编辑
摘要: 1 前言 1.1 内存分区 Java中有6种存储区域(参考Java的六大存储区域),如下: 寄存器(register):位于处理器内部,处理速度最快,空间比较珍贵; 栈(stack):位于通用RAM中,处理速度仅次于寄存器,空间较小。常用于存放对象引用、基本类型数据、方法调用; 堆(heap):位于 阅读全文
posted @ 2023-03-19 12:15 little_fat_sheep 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 1 简介 胶囊网络(CapsNet)由 Hinton 于2017年10月在《Dynamic Routing Between Capsules》中提出,目的在于解决 CNN 只能提取特征,而不能提取特征的状态、方向、位置等信息,导致模型的泛化(举一反三)能力较差,如: (1)将图片旋转180°,CNN 阅读全文
posted @ 2023-03-19 12:07 little_fat_sheep 阅读(282) 评论(0) 推荐(0) 编辑
摘要: 1 前言 时域卷积网络(Temporal Convolutional Network,TCN)属于卷积神经网络(CNN)家族,于2017年被提出,目前已在多项时间序列数据任务中击败循环神经网络(RNN)家族。 TCN 网络结构 图中,xi 表示第 i 个时刻的特征,可以是多维的。 TCN源码见--> 阅读全文
posted @ 2023-03-19 12:06 little_fat_sheep 阅读(415) 评论(0) 推荐(0) 编辑
摘要: 1 前言 本文以MNIST手写数字分类为例,讲解使用一维卷积和二维卷积实现 CNN 模型。关于 MNIST 数据集的说明,见使用TensorFlow实现MNIST数据集分类。实验中主要用到 Conv1D 层、Conv2D 层、MaxPooling1D 层和 MaxPooling2D 层,其参数说明如 阅读全文
posted @ 2023-03-19 12:05 little_fat_sheep 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 1 seq2seq模型简介 seq2seq 模型是一种基于【 Encoder-Decoder】(编码器-解码器)框架的神经网络模型,广泛应用于自然语言翻译、人机对话等领域。目前,【seq2seq+attention】(注意力机制)已被学者拓展到各个领域。seq2seq于2014年被提出,注意力机制于 阅读全文
posted @ 2023-03-19 12:01 little_fat_sheep 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 1 前言 基于keras的双层LSTM网络和双向LSTM网络中,都会用到 LSTM层,主要参数如下: LSTM(units,input_shape,return_sequences=False) units:隐藏层神经元个数 input_shape=(time_step, input_feature 阅读全文
posted @ 2023-03-19 12:01 little_fat_sheep 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 1 前言 理论上,网络层数越深,拟合效果越好。但是,层数加深也会导致梯度消失或梯度爆炸现象产生。当网络层数已经过深时,深层网络表现为“恒等映射”。实践表明,神经网络对残差的学习比对恒等关系的学习表现更好,因此,残差网络在深层模型中广泛应用。 本文以MNIST手写数字分类为例,为方便读者认识残差网络, 阅读全文
posted @ 2023-03-19 12:01 little_fat_sheep 阅读(99) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示