这位怪蜀黍 快来逗我玩吧!

关闭页面特效

随笔分类 -  人工智能TensorFlow深度学习

人工智能
人工智能深度学习入门练习之(4)矩阵实现
摘要:代码实现: import numpy as np import matplotlib from matplotlib import pyplot as plt # Default parameters for plots matplotlib.rcParams['font.size'] = 20 m 阅读全文
posted @ 2020-06-16 15:41 大码王 阅读(291) 评论(0) 推荐(0) 编辑
人工智能深度学习入门练习之(3)求导
摘要:代码实现: import tensorflow as tf # 创建4个张量 a=tf.constant(1.) b=tf.constant(2.) c=tf.constant(3.) w=tf.constant(4.) with tf.GradientTape() as tape: tape.wa 阅读全文
posted @ 2020-06-16 15:18 大码王 阅读(302) 评论(0) 推荐(0) 编辑
人工智能深度学习入门练习之(2)Anaconda和Pycharm的安装和配置
摘要:子曰:“工欲善其事,必先利其器。”学习Python就需要有编译Python程序的软件,一般情况下,我们选择在Python官网下载对应版本的Python然后用记事本编写,再在终端进行编译运行即可,但是对于我这样懒的小白,我喜欢装一些方便的软件来辅助我编写程序。在学习Java时,正常情况选择安装JDK然 阅读全文
posted @ 2020-06-16 10:59 大码王 阅读(882) 评论(0) 推荐(0) 编辑
人工智能深度学习入门练习之(1)Tensorflow2.2.0-cpu安装教程
摘要:1.下载Anaconda 1.下载最新版的Anoconda,可百度搜索“Anaconda 清华镜像”,下载对应系统机器位数的安装文件,我下载的windows-64bit。 网址如下:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/ 我是wi 阅读全文
posted @ 2020-06-15 18:06 大码王 阅读(3191) 评论(1) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow Keras及其用法(20)
摘要:Keras 是与 TensorFlow 一起使用的更高级别的作为后端的 API。添加层就像添加一行代码一样简单。在模型架构之后,使用一行代码,你可以编译和拟合模型。之后,它可以用于预测。变量声明、占位符甚至会话都由 API 管理。 具体做法 定义模型的类型。Keras 提供了两种类型的模型:序列和模 阅读全文
posted @ 2020-06-08 18:01 大码王 阅读(347) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow超参数及其调整(19)
摘要:正如你目前所看到的,神经网络的性能非常依赖超参数。因此,了解这些参数如何影响网络变得至关重要。常见的超参数是学习率、正则化器、正则化系数、隐藏层的维数、初始权重值,甚至选择什么样的优化器优化权重和偏置。 超参数调整过程 调整超参数的第一步是构建模型。与之前一样,在 TensorFlow 中构建模型。 阅读全文
posted @ 2020-06-08 17:58 大码王 阅读(495) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow多层感知机函数逼近过程(18)
摘要:Hornik 等人的工作(http://www.cs.cmu.edu/~bhiksha/courses/deeplearning/Fall.2016/notes/Sonia_Hornik.pdf)证明了一句话,“只有一个隐藏层的多层前馈网络足以逼近任何函数,同时还可以保证很高的精度和令人满意的效果。 阅读全文
posted @ 2020-06-08 17:56 大码王 阅读(234) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow多层感知机实现MINIST分类(17)
摘要:TensorFlow 支持自动求导,可以使用 TensorFlow 优化器来计算和使用梯度。它使用梯度自动更新用变量定义的张量。本节将使用 TensorFlow 优化器来训练网络。前面章节中,我们定义了层、权重、损失、梯度以及通过梯度更新权重。用公式实现可以帮助我们更好地理解,但随着网络层数的增加, 阅读全文
posted @ 2020-06-08 17:55 大码王 阅读(221) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow实现反向传播算法(16)
摘要:反向传播(BPN)算法是神经网络中研究最多、使用最多的算法之一,它用于将输出层中的误差传播到隐藏层的神经元,然后用于更新权重。学习 BPN 算法可以分成以下两个过程: 正向传播:输入被馈送到网络,信号从输入层通过隐藏层传播到输出层。在输出层,计算误差和损失函数。 反向传播:在反向传播中,首先计算输出 阅读全文
posted @ 2020-06-08 17:54 大码王 阅读(406) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow实现单层感知机(15)
摘要:简单感知机是一个单层神经网络。它使用阈值激活函数,正如 Marvin Minsky 在论文中所证明的,它只能解决线性可分的问题。虽然这限制了单层感知机只能应用于线性可分问题,但它具有学习能力已经很好了。当感知机使用阈值激活函数时,不能使用 TensorFlow 优化器来更新权重。我们将不得不使用权重 阅读全文
posted @ 2020-06-08 17:40 大码王 阅读(409) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow常用激活函数(14)
摘要:每个神经元都必须有激活函数。它们为神经元提供了模拟复杂非线性数据集所必需的非线性特性。该函数取所有输入的加权和,进而生成一个输出信号。你可以把它看作输入和输出之间的转换。使用适当的激活函数,可以将输出值限定在一个定义的范围内。如果 xi 是第 j 个输入,Wj 是连接第 j 个输入到神经元的权重,b 阅读全文
posted @ 2020-06-08 17:38 大码王 阅读(595) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之浅谈感知机与神经网络(13)
摘要:最近十年以来,神经网络一直处于机器学习研究和应用的前沿。深度神经网络(DNN)、迁移学习以及计算高效的图形处理器(GPU)的普及使得图像识别、语音识别甚至文本生成领域取得了重大进展。神经网络受人类大脑的启发,也被称为连接模型。像人脑一样,神经网络是大量被称为权重的突触相互连接的人造神经元的集合。就像 阅读全文
posted @ 2020-06-08 17:37 大码王 阅读(208) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow逻辑回归处理MNIST数据集(12)
摘要:本节基于回归学习对 MNIST 数据集进行处理,但将添加一些 TensorBoard 总结以便更好地理解 MNIST 数据集。 MNIST由https://www.tensorflow.org/get_started/mnist/beginners提供。 大部分人已经对 MNIST 数据集很熟悉了, 阅读全文
posted @ 2020-06-08 17:36 大码王 阅读(281) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow实现多元线性回归(11)
摘要:在 TensorFlow 实现简单线性回归的基础上,可通过在权重和占位符的声明中稍作修改来对相同的数据进行多元线性回归。在多元线性回归的情况下,由于每个特征具有不同的值范围,归一化变得至关重要。这里是波士顿房价数据集的多重线性回归的代码,使用 13 个输入特征。 波士顿房价数据集可从http://l 阅读全文
posted @ 2020-06-08 17:34 大码王 阅读(313) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow实现简单线性回归(10)
摘要:本节将针对波士顿房价数据集的房间数量(RM)采用简单线性回归,目标是预测在最后一列(MEDV)给出的房价。 波士顿房价数据集可从http://lib.stat.cmu.edu/datasets/boston处获取。 本小节直接从 TensorFlow contrib 数据集加载数据。使用随机梯度下降 阅读全文
posted @ 2020-06-08 17:03 大码王 阅读(205) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow csv文件读取数据(9)
摘要:大多数人了解 Pandas 及其在处理大数据文件方面的实用性。TensorFlow 提供了读取这种文件的方法。前面章节中,介绍了如何在 TensorFlow 中读取文件,本节将重点介绍如何从 CSV 文件中读取数据并在训练之前对数据进行预处理。本节将采用哈里森和鲁宾菲尔德于 1978 年收集的波士顿 阅读全文
posted @ 2020-06-08 17:01 大码王 阅读(305) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow优化器(8)
摘要:高中数学学过,函数在一阶导数为零的地方达到其最大值和最小值。梯度下降算法基于相同的原理,即调整系数(权重和偏置)使损失函数的梯度下降。在回归中,使用梯度下降来优化损失函数并获得系数。本节将介绍如何使用 TensorFlow 的梯度下降优化器及其变体。按照损失函数的负梯度成比例地对系数(W 和 b)进 阅读全文
posted @ 2020-06-08 17:00 大码王 阅读(228) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之TensorFlow损失函数(7)
摘要:正如前面所讨论的,在回归中定义了损失函数或目标函数,其目的是找到使损失最小化的系数。本节将介绍如何在 TensorFlow 中定义损失函数,并根据问题选择合适的损失函数。声明一个损失函数需要将系数定义为变量,将数据集定义为占位符。可以有一个常学习率或变化的学习率和正则化常数。在下面的代码中,设 m 阅读全文
posted @ 2020-06-08 16:58 大码王 阅读(279) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之回归算法(6)
摘要:回归是数学建模、分类和预测中最古老但功能非常强大的工具之一。回归在工程、物理学、生物学、金融、社会科学等各个领域都有应用,是数据科学家常用的基本工具。回归通常是机器学习中使用的第一个算法。通过学习因变量和自变量之间的关系实现对数据的预测。例如,对房价估计时,需要确定房屋面积(自变量)与其价格(因变量 阅读全文
posted @ 2020-06-08 16:57 大码王 阅读(187) 评论(0) 推荐(0) 编辑
TensorFlow从0到1之浅谈深度学习(5)
摘要:DNN(深度神经网络算法)现在是AI社区的流行词。最近,DNN 在许多数据科学竞赛/Kaggle 竞赛中获得了多次冠军。自从 1962 年 Rosenblat 提出感知机(Perceptron)以来,DNN 的概念就已经出现了,而自 Rumelhart、Hinton 和 Williams 在 198 阅读全文
posted @ 2020-05-22 14:43 大码王 阅读(326) 评论(0) 推荐(0) 编辑

成都

复制代码

喜欢请打赏

扫描二维码打赏

了解更多

点击右上角即可分享
微信分享提示