06 2023 档案

摘要:2.1数据操作笔记 PyTorch和TensorFlow中的Tensor类型可做为张量使用,可支持GPU操作和自动微分。 广播机制:对不同形状的张量可使用广播机制进行运算。 为节省内存,可使用 X[:] = X + Y或X += Y来减少操作的内存开销。 2.1练习 1运行本节中的代码。将本节中的条 阅读全文
posted @ 2023-06-30 09:52 浪矢-CL 阅读(176) 评论(0) 推荐(0) 编辑
摘要:Jupyter Notebook运行中内核挂掉了 有人说可能是版本冲突,由于我的都是最新版本,因此更新版本并未解决该问题。 最后发现有人通过这行代码解决了 import os os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE" 我也试了试,发现...... 我加了这一 阅读全文
posted @ 2023-06-28 18:47 浪矢-CL 阅读(770) 评论(0) 推荐(0) 编辑
摘要:3.1笔记 线性回归假设y与多个x之间的关系是线性的,且噪声符合正态分布。 线性模型则是对输入特征做仿射变换Y^ = W * X+b,其中Y^为预测值,我们希望预测值与真实值Y的误差最小。那如何衡量这个误差呢,使用损失函数来量化。 (在线性模型中,一般采用最小二乘的损失函数) 这样,将问题转化为关注 阅读全文
posted @ 2023-06-28 17:31 浪矢-CL 阅读(260) 评论(0) 推荐(0) 编辑
摘要:入门深度学习,从李沐老师的动手学开始 以此为目录,记录学习感悟与课后练习。 2、预备知识 3、线性神经网络 4、多层感知机 5、深度学习计算 6、卷积神经网络 7、现代卷积神经网络 8、循环神经网络 9,现代循环神经网络 10, 注意力机制 11,优化算法 12,计算性能 13. 计算机视觉 AI- 阅读全文
posted @ 2023-06-27 12:01 浪矢-CL 阅读(59) 评论(0) 推荐(0) 编辑
摘要:4.1笔记 在线性网络中,任何特征的增大都会导致模型输出的增大或减小。这种想法在某些情况下不在适用,例如x和y并非线性关系、或者是x和y并不具有单调性、以及x1、x2会对y产生交互作用时。 为解决该问题,有人提出在网络中加入隐藏层,来克服线性模型的限制,使其能够处理更多变的函数关系。为防止多个隐藏层 阅读全文
posted @ 2023-06-23 16:25 浪矢-CL 阅读(330) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示