01 2025 档案

摘要:转自:https://www.cnblogs.com/catnofishing/p/13287322.html detach到底有什么作用呢 首先要明确一个意识:pytorch是动态计算图,每次backward后,本次计算图自动销毁,但是计算图中的节点都还保留。 ​ 方向传播直到叶子节点为止,否者一 阅读全文
posted @ 2025-01-22 10:53 有何m不可 阅读(11) 评论(0) 推荐(0) 编辑
摘要:转自:https://zhuanlan.zhihu.com/p/47907312 编者按:关于LSTM,之前我们已经出过不少文章,其中最经典的一篇是chrisolah的《一文详解LSTM网络》,文中使用的可视化图片被大量博文引用,现在已经随处可见。但正如短视频取代纯文字阅读是时代的趋势,在科普文章中 阅读全文
posted @ 2025-01-20 17:36 有何m不可 阅读(124) 评论(0) 推荐(0) 编辑
摘要:转自:https://zhuanlan.zhihu.com/p/115823190 RNN常用来处理序列式问题,本篇采用动图的方式展示RNN的计算过程。最常见的3中RNN网络结构分别为: vanilla RNN long short-term memory (LSTM) gated recurren 阅读全文
posted @ 2025-01-20 17:15 有何m不可 阅读(37) 评论(0) 推荐(0) 编辑
摘要:本文将介绍信息量,熵,交叉熵,相对熵的定义,以及它们与机器学习算法中代价函数的定义的联系。转载请保留原文链接:http://www.cnblogs.com/llhthinker/p/7287029.html 1. 信息量 信息的量化计算: 解释如下: 信息量的大小应该可以衡量事件发生的“惊讶程度”或 阅读全文
posted @ 2025-01-19 18:50 有何m不可 阅读(43) 评论(0) 推荐(0) 编辑
摘要:转自https://zhuanlan.zhihu.com/p/647312079 通俗理解:一个事件从不确定变为确定的难度有多大 往往某件事情发生概率越低,信息量越大,从不确定变为确定的难度越大 ex:【中国队想要在世界杯夺冠】这一事件发生概率极极极低,信息量非常大,想要实现即“从不确定变为确定”的 阅读全文
posted @ 2025-01-19 18:45 有何m不可 阅读(45) 评论(0) 推荐(0) 编辑
摘要:转自:Torch - scatter、scatter_add和gather - X1OO - 博客园 最基础的发散操作Scatter 函数原型: scatter_(dim,index,src)→ Tensor 参数: dim (int) – the axis along which to index 阅读全文
posted @ 2025-01-11 21:17 有何m不可 阅读(122) 评论(0) 推荐(0) 编辑
摘要:在WSL(Windows Subsystem for Linux)中启用GPU加速需要一系列步骤,以确保硬件和软件之间的兼容性。以下是详细步骤: 1. 确认WSL版本和GPU硬件兼容性 首先,确保你的Windows版本支持WSL2,并且你的GPU与WSL2兼容。WSL2需要Windows 10版本2 阅读全文
posted @ 2025-01-04 11:09 有何m不可 阅读(550) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示