随笔分类 -  Pytorch

摘要:Scipy稀疏矩阵用法解析 1.引言 在矩阵处理中为了减少内存的占用经常用到各种形式的稀疏矩阵存储方式(比如单位阵,会造成空间浪费),这时就采用矩阵压缩的方式来表述,数据不变,存储形式发生改变,省很多空间),scipy(一个Python库)就是一个利器。 引用参考文献地址:【Scipy学习】Scip 阅读全文
posted @ 2023-11-03 09:27 饮一杯天上水 阅读(862) 评论(0) 推荐(0) 编辑
摘要:平移不变性问题 1.数据域 随着网络时代的发展,生活中产生的数据量越来越多,但数据大体分为两类:欧几里得数据、非欧几里得数据。如下图为两类常见的数据: 1.1 欧几里得数据 它是一类具有很好的平移不变性的数据。对于这类数据以其中一个像素为节点,其邻居节点的数量相同。所以可以很好的定义一个全局共享的卷 阅读全文
posted @ 2023-11-03 09:20 饮一杯天上水 阅读(206) 评论(0) 推荐(0) 编辑
摘要:交叉熵损失函数 1.基础知识 import torch import numpy as np # 自然对数底数e print("自然对数底数e",np.e) # 无穷大 print('无穷大',np.inf) # 无穷小 print('负无穷大',-np.inf) 输出: # 自然对数底数e 2.7 阅读全文
posted @ 2023-11-03 09:14 饮一杯天上水 阅读(325) 评论(0) 推荐(0) 编辑
摘要:Pytorch nn.Linear的基本用法与原理详解 原文:Pytorch nn.Linear的基本用法与原理详解_iioSnail的博客-CSDN博客 nn.Linear的基本定义 nn.Linear定义一个神经网络的线性层,方法签名如下: torch.nn.Linear(in_features 阅读全文
posted @ 2023-10-03 16:19 饮一杯天上水 阅读(2283) 评论(0) 推荐(1) 编辑
摘要:梯度与反向传播 1、梯度(方向向量) 1.1 什么是梯度 梯度:是一个向量,导数+变化最快的方向(学习的前进方向) 目标:通过梯度调整(学习)参数w,尽可能的降低loss 一般的,随机初始一个w0,通过优化器在学习率和梯度的调整下,让loss函数取到最小值。 1.2 阅读全文
posted @ 2023-10-02 17:24 饮一杯天上水 阅读(243) 评论(0) 推荐(0) 编辑
摘要:Pytorch环境深度学习环境 1、安装minicoda 下载地址:Miniconda — miniconda documentation 设置环境变量: 安装路径\Miniconda3 安装路径\Miniconda3\Scripts 安装路径\Miniconda3\Library\bin 测试:打 阅读全文
posted @ 2023-10-01 21:19 饮一杯天上水 阅读(122) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示