摘要: 一、实现异步 1 ''' 2 @Author :Lucian Lu 3 @Date :2021/12/22 13:57 4 ''' 5 import time, threading 6 7 8 def genCoroutine(func): 9 def wrapper(*args, **kwargs 阅读全文
posted @ 2021-12-23 13:41 luyizhou 阅读(353) 评论(0) 推荐(0) 编辑
摘要: 一、偏差与方差 偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力 算法的差异 方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响 数据集的差异 训练集的错误率较小,而验证集、测试集的错误率较大,说明模型存在较大方差,可能出现过拟合 阅读全文
posted @ 2021-12-03 14:35 luyizhou 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 一、非线性激活函数 多层的线性网络和单层的线性网络没有区别,线性模型能够解决的问题也是有限的。 可在此网站观察模拟:Tinker With a Neural Network Right Here in Your Browser. 使用线性激活函数和不使用激活函数、直接使用Logistic回归没有区别 阅读全文
posted @ 2021-12-03 09:49 luyizhou 阅读(546) 评论(0) 推荐(0) 编辑
摘要: 一、损失函数 损失函数是表示神经网络性能的“恶劣程度”的指标,即当前的神经网络对监督数据在多大程度上不拟合,在多大程度上不一致。以“性能的恶劣程度”为指标可能会使人感到不太自然,但是如果给损失函数乘上一个负值,就可以解释为“在多大程度上不坏”,即“性能有多好”。并且,“使性能的恶劣程度达到最小”和“ 阅读全文
posted @ 2021-11-26 16:44 luyizhou 阅读(249) 评论(0) 推荐(0) 编辑
摘要: 一、激活函数 1、引入 感知机接收x1和x2两个输入信号,输出y。 b是被称为偏置的参数,用于控制神经元被激活的容易程度;而w1和w2是表示各个信号的权重的参数,用于控制各个信号的重要性。 登场的h(x)函数会将输入信号的总和转换为输出信号,这种函数一般称为激活函数(activation funct 阅读全文
posted @ 2021-11-26 15:34 luyizhou 阅读(463) 评论(0) 推荐(0) 编辑
摘要: 一、jieba介绍 jieba是NLP中常用的中文分词库 二、词库 1、默认词库 jieba 默认有349046个词,然后每行的含义是 : 词 词频 词性 首先来看看jieba分词每次启动时,做了件什么事情,它做了2件事情: 加载结巴自身的默认词库 将默认词库模型 加载到本机缓存,之后每次都从本地缓 阅读全文
posted @ 2021-11-09 17:52 luyizhou 阅读(671) 评论(0) 推荐(0) 编辑
摘要: 一、fastText安装 windows下直接:pip install fasttext 直接下载whl包安装 二、fastText介绍 fastText是一个快速文本分类算法,与基于神经网络的分类算法相比有两大优点: 1、fastText在保持高精度的情况下加快了训练速度和测试速度 2、fastT 阅读全文
posted @ 2021-11-03 16:57 luyizhou 阅读(4856) 评论(1) 推荐(0) 编辑
摘要: 一、GRU介绍 GRU是LSTM网络的一种效果很好的变体,它较LSTM网络的结构更加简单,而且效果也很好,因此也是当前非常流形的一种网络。GRU既然是LSTM的变体,因此也是可以解决RNN网络中的长依赖问题。 GRU的参数较少,因此训练速度更快,GRU能够降低过拟合的风险。 在LSTM中引入了三个门 阅读全文
posted @ 2021-10-28 15:03 luyizhou 阅读(7442) 评论(0) 推荐(1) 编辑
摘要: 补充: 常见的激活函数:https://blog.csdn.net/tyhj_sf/article/details/79932893 常见的损失函数:https://blog.csdn.net/github_38140310/article/details/85061849 一、LSTM原理 拆分理 阅读全文
posted @ 2021-10-27 11:28 luyizhou 阅读(2444) 评论(0) 推荐(0) 编辑
摘要: 一、RNN简介 循环神经网络(Recurrent Neural Network,RNN)是一类专门用于处理时序数据样本的神经网络,它的每一层不仅输出给下一层,同时还输出一个隐状态,给当前层在处理下一个样本时使用。就像卷积神经网络可以很容易地扩展到具有很大宽度和高度的图像,而且一些卷积神经网络还可以处 阅读全文
posted @ 2021-10-27 11:18 luyizhou 阅读(993) 评论(0) 推荐(0) 编辑