11 2021 档案
摘要:五 卫星图像识别 tf.data 卷积综合实例 二分类问题:飞机、湖泊 所有的数据都放在2_class文件夹下的两个文件夹airplane、lake 数据集百度网盘 链接:https://pan.baidu.com/s/1gBOIYvbyu_5p2fQrPy3U9A 提取码:91qk 运行代码(里面
阅读全文
摘要:4.2卷积神经网络识别Fashion mnist数据集 点击查看代码 from tensorflow import keras import tensorflow as tf import matplotlib.pyplot as plt import numpy as np fashion_mni
阅读全文
摘要:4.1 卷积神经网络 卷积神经网络主要应用于计算机视觉相关任务,但它能处理的任务并不局限于图像,在语音识别方面也是可以使用卷积神经网络 计算机可以通过寻找诸如边缘和曲线之类的低级特点来分类图片,继而通过一系列卷积层级建构除更为抽象的概念,这是CNN(卷积神经网络)工作方式的大体概述。 CNN工作概述
阅读全文
摘要:3.2tf.data运用实例 使用tf.data作为输入,改写之前写过的MNIST代码 点击查看代码 import tensorflow as tf #下载数据集 (train_images, train_labels), (test_images, test_labels) = tf.keras.
阅读全文
摘要:3.1 tf.data模块简介及用法 可以从多个数据源非常方便的读取数据 在第一个epoch中缓存下载,接下来的epoch处理的速度就会变快 使用简单的代码构建复杂的输入,可以轻松处理大量数据、不同数据格式以及复杂的转换 tf.data.Dataset 表示一系列的元素、图片,每个元素包含一个或多个
阅读全文
摘要:2.11tf.keras函数式API 将每一层写成一个函数,每次使用直接调用。 好处:可以建立多输入多输出模型 点击查看代码 from tensorflow import keras import matplotlib.pyplot as plt fashion_mnist = keras.data
阅读全文
摘要:2.10Dropout抑制过拟合与 model.fit(train_image,train_label,epochs=5,validation_data=(test_image,test_label)) 加上validation_data会在每一轮都对测试集进行测试 过拟合:loss和acc在训练集
阅读全文
摘要:2.9 优化函数、学习速率、反向传播算法 梯度:表明损失函数相对参数的变化率 学习速率:对梯度进行缩放的参数,是一种超参数(超参数写代码时需要自己设定),在具体实践中,可通过查看损失函数值随时间的变化曲线,来判断学习速率的选取是否合适 合适的学习速率,损失函数随时间下降,直到一个底部;不合适的学习速
阅读全文
摘要:2.8 softmax分类 前面学的对数几率回归解决的是二分类问题,对于多分类问题,可以使用softmax函数,它是对数几率再N个可能不同的值上的推广 神经网络的原始输出并不是一个概率值,实质上只是对输入的数值做了复杂的甲醛和非线性处理之后的一个值而已,而softmax层就可以将这个输出变成概率分布
阅读全文
摘要:2.7 逻辑回归实现 本节代码需要的文件链接:https://pan.baidu.com/s/1jhHHi9bxrV5ogH7mKTc8Bw 提取码:1zhs 先认识下数据 点击查看代码 import pandas as pd data = pd.read_csv("./dataset/credit
阅读全文
摘要:2.6逻辑回归与交叉熵 之前的线性回归预测的是一个连续值,而逻辑回归预测的是“是”和“否”的回答。 需要用到一个sigmoid激活函数,系那个结果映射到0到1之间,就可以将结果堪称一个概率值,当小于0.5认为是一个负面回答,否则认为是一个正面回答。 逻辑回归的损失函数不能使用线性回归的损失函数均方差
阅读全文
摘要:2.5多层感知器(神经网络)的代码实现 需要文件的链接:https://pan.baidu.com/s/1qw30xhWnezLfDZln2_CbBg 提取码:guzz 点击查看代码 import pandas as pd data = pd.read_csv("./dataset/Advertis
阅读全文
摘要:之前学习的线性回归模型其实是单个神经元:计算输入特征的加权和,然后使用一个激活函数计算输出。上面的线性回归实际并没有涉及激活函数,直接将结果输出了。 单个神经元进行二分类,如图2-5所示 图2-5 x1,x2,x3是一个数据的输入,w1,w2,w3是权重,b是偏置,最后输出以恶搞分类结果 多个神经元
阅读全文
摘要:梯度下降算法是机器学习的一个核心算法 梯度下降法是一种致力于找到函数极值点的算法。机器学习的“学习”便是改进模型参数,以便通过大量训练步骤将损失最小化。而梯度下降法就是应用于寻找损失函数的极值点便构成了依据输入数据的模型学习。 前两小节的损失函数loss=(f(x)-y)^2/n=(ax+b-y)^
阅读全文
摘要:2.2 tf.keras实现线性回归 废话不多说,接上一篇机器学习原理——线性回归,直接上可运行代码 点击查看代码 import pandas as pd import tensorflow as tf data = pd.read_csv("./dataset/Income1.csv") x =
阅读全文
摘要:2.1 机器学习原理——线性回归 在代码目录下创建一个dataset目录,将Income1.csv放入到该目录下 链接:https://pan.baidu.com/s/1oAT_Pk-LRp1Nl1SbpzhdlQ 提取码:58wb 这个文件我放到了百度网盘的分享链接里面了 单变量线性回归算法: x
阅读全文
摘要:一开发环境搭建 我使用的是win10系统。 python版本的要求是3.5-3.7,我使用的是python3.7 学习python最好需要有anaconda这个软件 windows用户还需要安装vc++,可以从官网下载 https://support.microsoft.com/zh-cn/help
阅读全文
摘要:一 前期准备 1.1 anaconda配置 打开Anaconda Prompt(anaconda),创建虚拟环境 输入命令: conda create -n pytorch_py36 python=3.6 图1-1 创建的过程中会有一个选择,输入y就可以了,如图1-1所示 创建成功之后如图所示 激活
阅读全文