随笔分类 -  课程资料 / 深度学习

一场机器与人的较量
摘要:Keras实现简单BP神经网络 BP 神经网络的简单实现 1 2 3 4 5 6 7 8 9 10 from keras.models import Sequential #导入模型 from keras.layers.core import Dense #导入常用层 train_x,train_y 阅读全文
posted @ 2023-10-12 00:36 何弈 阅读(371) 评论(0) 推荐(0) 编辑
摘要:Python Keras 报错AttributeError: 'Sequential' object has no attribute 'predict_classes'解决方法 本文文要介绍Python中,使用 Keras 执行yhat_classes = model.predict_classe 阅读全文
posted @ 2023-10-10 13:07 何弈 阅读(666) 评论(0) 推荐(0) 编辑
摘要:keras中to_categorical函数解析 1.to_categorical的功能简单来说,to_categorical就是将类别向量转换为二进制(只有0和1)的矩阵类型表示。其表现为将原有的类别向量转换为独热编码的形式。先上代码看一下效果: from keras.utils.np_utils 阅读全文
posted @ 2023-10-10 12:49 何弈 阅读(789) 评论(0) 推荐(0) 编辑
摘要:train_test_split 函数介绍 在机器学习中,我们通常将原始数据按照比例分割为“测试集”和“训练集”,从 sklearn.model_selection 中调用train_test_split 函数 简单用法如下: X_train,X_test, y_train, y_test =skl 阅读全文
posted @ 2023-10-10 12:32 何弈 阅读(315) 评论(0) 推荐(0) 编辑
摘要:%matplotlib inline的作用 %matplotlib inline 是一个魔术命令(magic command),用于在 Jupyter Notebook 或 IPython 环境中显示 matplotlib 图形的内嵌设置。当使用 %matplotlib inline 命令时,它会告 阅读全文
posted @ 2023-10-10 11:31 何弈 阅读(547) 评论(0) 推荐(0) 编辑
摘要:41.7%年化收益率 人工智能买股可以如此简单 学一门知识,充实自我 掌握一项工具,让生活更美好~今天flare老师教大家AI选股,轻松搭建一个年化收益40%的机器学习选股策略 —by flare zhao,转载请注明出处,原创不易,谢谢支持 话不多说,先看策略的最终表现: 2017年12月到201 阅读全文
posted @ 2023-10-10 11:18 何弈 阅读(42) 评论(0) 推荐(0) 编辑
摘要:jupyter notebook 介绍 1.In[] 状态 1.1.前面无In[],说明为非python状态 1.2 In[ ]编号为空,表示该cell尚未被执行 1.3 In[ ]中的数值为该cell的执行顺序,不是编 写顺序 1.4 In[ ]中的星号(*),表示该cell正在执行 1.5 同一 阅读全文
posted @ 2023-10-09 15:25 何弈 阅读(182) 评论(0) 推荐(0) 编辑
摘要:【译】理解LSTM(通俗易懂版) 循环神经网络(Recurrent Neural Networks) 人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。在理解当前文字的时候,你并不会忘记之前看过的文字,从头思考当前文字的含义。 传统的神经网络 阅读全文
posted @ 2023-10-08 17:42 何弈 阅读(176) 评论(0) 推荐(0) 编辑
摘要:BP神经网络模型:深入探究与应用 导言BP神经网络模型(Backpropagation Neural Network)是一种广泛应用于机器学习和人工智能领域的神经网络模型。它以其强大的非线性拟合能力和适应性而备受关注。1. BP神经网络模型原理1.1 神经网络基础在深入探讨BP神经网络模型之前,我们 阅读全文
posted @ 2023-08-28 15:56 何弈 阅读(372) 评论(0) 推荐(0) 编辑
摘要:激活函数在神经网络中的作用有很多,主要作用是给神经网络提供非线性建模能力。如果没有激活函数,那么再多层的神经网络也只能处理线性可分问题。常用的激活函数有 sigmoid、 tanh、 relu、 softmax等。 1.1、sigmoid函数 sigmoid函数将输入变换为(0,1)上的输出。它将范 阅读全文
posted @ 2023-08-28 15:46 何弈 阅读(940) 评论(0) 推荐(0) 编辑
摘要:Sigmoid函数求导 基础知识: Sigmoid函数: Sigmoid图形: 生成Sigmoid图形代码: import torch from d2l import torch as d2l %matplotlib inline x=torch.arange(-8.0,8.0,0.1,requir 阅读全文
posted @ 2023-08-28 15:32 何弈 阅读(207) 评论(0) 推荐(0) 编辑
摘要:python实现BP神经网络进行预测和误差分析(附源代码) 反向传播算法也称为BP神经网络,是一种带有反馈的神经网络反向学习方法,它可以对神经网络的各层上的各个神经元的各个神经元之间的连接权重进行不断迭代修改,使神经网络将输入数据转换成期望的输出数据 BP神经网络的学习过程由正向传播和反向传播两部分 阅读全文
posted @ 2023-08-27 13:07 何弈 阅读(942) 评论(0) 推荐(0) 编辑
摘要:Word2Vec Word2Vec 是 google 在2013年提出的词向量模型,通过 Word2Vec 可以用数值向量表示单词,且在向量空间中可以很好地衡量两个单词的相似性。 简述 我们知道,在使用神经网络处理数据的时候,神经网络只能处理数字向量或者矩阵,他不可能理解文本、图像本身。那么,图像是 阅读全文
posted @ 2023-08-21 16:13 何弈 阅读(220) 评论(0) 推荐(0) 编辑
摘要:【词向量基础】:one-hot 词向量(word vector),也叫词嵌入(word embedding),是一种词表征形式,将词从符号形式映射为向量形式,渐渐演变成了一种知识表示的方法。将词语从符号表示形式转换为了向量表示形式,方便了机器对自然语言的计算,因此,词向量几乎成为了所有自然语言处理和 阅读全文
posted @ 2023-08-21 15:34 何弈 阅读(158) 评论(0) 推荐(0) 编辑
摘要:偏差和方差 机器学习算法针对特定数据所训练出来的模型并非是十全十美的,再加上数据本身的复杂性,误差不可避免。说到误差,就必须考虑其来源:模型误差 = 偏差(Bias)+ 方差(Variance)+ 数据本身的误差。其中数据本身的误差,可能由于记录过程中的一些不确定性因素等导致,这个我们无法避免,能做 阅读全文
posted @ 2021-08-27 17:14 何弈 阅读(1655) 评论(0) 推荐(0) 编辑
摘要:一般性的是C-SVC。nu-SVC 见:http://scikit-learn.org/stable/modules/svm.html#svm-mathematical-formulation https://www.quora.com/What-is-the-difference-between- 阅读全文
posted @ 2021-08-23 11:35 何弈 阅读(843) 评论(0) 推荐(0) 编辑
摘要:支持向量机(Support Vector Machine, SVM) 1. 概要 1.1 简介 自从大半年前接触到SVM以来,感觉一直没怎么把SVM整明白。直到最近上的《模式识别》课程才仿佛打通了我的任督二脉,使我终于搞清楚了SVM的来龙去脉,所以写个博客作个总结。 SVM是什么? 先来看看维基百科 阅读全文
posted @ 2021-07-28 16:31 何弈 阅读(682) 评论(0) 推荐(0) 编辑
摘要:迫近年关,很多人都写了 19 年的总结和 20 年的展望。我在回想 2019 年的时候,想到自己只读完了几本‘杂’书,真正技术的书籍一本也没有读完。焦虑就悄然涌上心头,有种不学习就退步的烦躁。然后我回想起了之前看到的一个网站: Teach Yourself Computer Science:http 阅读全文
posted @ 2021-07-19 20:07 何弈 阅读(130) 评论(0) 推荐(0) 编辑
摘要:1、为什么要做特征选择在有限的样本数目下,用大量的特征来设计分类器计算开销太大而且分类性能差。2、特征选择的确切含义将高维空间的样本通过映射或者是变换的方式转换到低维空间,达到降维的目的,然后通过特征选取删选掉冗余和不相关的特征来进一步降维。3、特征选取的原则获取尽可能小的特征子集,不显著降低分类精 阅读全文
posted @ 2021-03-10 20:09 何弈 阅读(677) 评论(0) 推荐(0) 编辑
摘要:理解模型正则化:L1正则、L2正则(理论+代码) 0 前言 我们已经知道了模型误差 = 偏差 + 方差 + 不可避免的误差,且在机器学习领域中最重要就是解决过拟合的问题,也就是降低模型的方差。在上一篇文章《ML/DL重要基础概念:偏差和方差》已经列出了如下方法: 降低模型复杂度 减少数据维度;降噪 阅读全文
posted @ 2020-07-02 22:21 何弈 阅读(2849) 评论(0) 推荐(1) 编辑

你好
点击右上角即可分享
微信分享提示