随笔分类 -  pytorch

摘要:以理服人 链式法则是微积分中用于求导的重要法则,它适用于复合函数的导数求解。 设有两个函数:y = f(u) 和 u = g(x),则复合函数 y = f(g(x))。 我们要求导复合函数 y 对于 x 的导数,即求 dy/dx。 根据链式法则,dy/dx = dy/du * du/dx。 其中,d 阅读全文
posted @ 2023-12-06 20:20 周XX 阅读(468) 评论(0) 推荐(0) 编辑
摘要:上了篇尝试了利用穷举法来求较好的模型,但是穷举法的效率很低。还有一种更高效的方法,梯度下降法(Gradient Descent)。 算法过程 代码实现 x = [338., 333., 328., 207., 226., 25., 179., 70., 208., 606.] y = [640., 阅读全文
posted @ 2023-11-15 23:33 周XX 阅读(9) 评论(0) 推荐(0) 编辑
摘要:样本:有十个点 假设有十个点,用matplotlib画出来 import matplotlib.pyplot as plt cp = [338., 333., 328., 207., 226., 25., 179., 70., 208., 606.] y = [640., 633., 619., 3 阅读全文
posted @ 2023-11-15 00:17 周XX 阅读(18) 评论(0) 推荐(0) 编辑
摘要:通常而言,数据不会以处理好的形式出现,所以我们需要在训练前对数据进行预处理,以适应训练 所有 TorchVision 的 Dataset 都会有两个参数—— transform 用于修改特征,target_transform 用于修改标签——它们接受包含转换逻辑的可调用对象(其实就是接受函数对象)。 阅读全文
posted @ 2023-06-05 23:37 周XX 阅读(33) 评论(0) 推荐(0) 编辑
摘要:Dataset 和 DataLoader 用于处理数据样本的代码可能会变得凌乱且难以维护;理想情况下,我们希望数据集代码与模型训练代码解耦,以获得更好的可读性和模块化。PyTorch提供的torch.utils.data.DataLoader 和 torch.utils.data.Dataset允许 阅读全文
posted @ 2023-04-10 00:25 周XX 阅读(98) 评论(0) 推荐(0) 编辑
摘要:张量 张量是一种特殊的数据结构,与数组和矩阵非常相似。 在 PyTorch 中,我们使用张量对模型的输入和输出以及模型的参数进行编码。 张量类似于 NumPy 的 ndarray,此外张量可以在 GPU 或其他硬件加速器上运行。事实上,张量和 NumPy 数组通常可以共享相同的底层内存,无需复制数据 阅读全文
posted @ 2023-04-08 23:59 周XX 阅读(89) 评论(0) 推荐(0) 编辑
摘要:本文主要介绍机器学习中常见任务的API。 处理数据 PyTorch有两个处理数据的方式:torch.utils.data.DataLoader 和torch.utils.data.Dataset 。 Dataset存储样本及其相应的标签, DataLoader 在Dataset的外层用迭代器进行包装 阅读全文
posted @ 2023-04-08 22:41 周XX 阅读(167) 评论(0) 推荐(0) 编辑
摘要:pytorch的安装就是做选择题 选择版本。版本主要分为稳定版和尝鲜版。对于大多数用户来说,稳定版就好啦,稳定版是经过充分测试验证的;但尝鲜版就不一样了,很多特性并不稳定。 选择系统。 选择安装工具。比如conda,pip。笔者通常都会用pip 选择开发语言。这个系列用python 选择计算框架。有 阅读全文
posted @ 2023-04-07 00:04 周XX 阅读(76) 评论(0) 推荐(0) 编辑
摘要:上面图片截自官网,主要想体现的是如下四点: 1. 生产环境可用。 使用torch script在eager和graph模式间能够做到无缝切换,并且可以使用TorchServe加速。 2. 分布式训练。 在研究和生产中,通过torch.distributed能实现可伸缩的分布式训练和性能优化。 3. 阅读全文
posted @ 2023-04-06 00:14 周XX 阅读(424) 评论(0) 推荐(0) 编辑
摘要:# pytorch已经来到了2.0版本!!! ![](https://img2023.cnblogs.com/blog/129964/202304/129964-20230405224649993-242980210.png) 然后之前搞文档翻译或者系列教程的几个网站也已经停更很久,有的停留在1.4 阅读全文
posted @ 2023-04-05 22:39 周XX 阅读(290) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示