摘要: 英文 翻译 before proceeding further 在进一步之前 i.e. 也就是,即 cf. 即confer,参考 one can ... 人们能...,我们可以... with respect to/w.r.t 关于... 阅读全文
posted @ 2024-07-21 10:04 光辉233 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 学一门课,记住主要定理就行,用到细节再慢慢去看 阅读全文
posted @ 2024-04-11 20:06 光辉233 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 模型分两大类,物理模型/统计模型。 物理模型主要就是微分方程。 看待微分方程的态度不应该仅仅是,给我一个方程我怎么解(simulation),还有应该是面对已观测的数据,现象,怎么用微分方程描述(modeling) 阅读全文
posted @ 2024-04-09 11:47 光辉233 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 规律是可以用函数表达的,也可以用方程表达。 一个方程是一个等式,表达了一种守恒,描述了一种规律; 通过implicit function theorem,一个方程满足某些条件可以确定一个隐函数; 求解一个微分方程,就是找到满足等式的函数,他的解可以是多个,这就是为什么称其为“方程”,而不是称其为“函 阅读全文
posted @ 2024-04-09 10:33 光辉233 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 微分方程理论的主要内容是: 求解 研究解的各种性质 因此,微分方程的研究大致可分为定量和定性两部分 由于绝大多数微分方程不能用已知函数的积分表示出通解,从定性方面需要解决的问题是: 直接根据微分方程的结构来研究解的属性 或者研究由方程确定的曲线的分布情形 参考[2] P180 近年来,人们不仅关心微 阅读全文
posted @ 2024-04-02 16:07 光辉233 阅读(1) 评论(0) 推荐(0) 编辑
摘要: ROC曲线 Reference ROC 曲线 F-score 准确率、精确率、召回率、F1值、ROC/AUC整理笔记 阅读全文
posted @ 2024-03-26 11:46 光辉233 阅读(2) 评论(0) 推荐(0) 编辑
摘要: troch.cat()& torch.stack() .cat 和 .stack的区别在于 cat会增加现有维度的值,可以理解为续接,stack会新加增加一个维度,可以理解为叠加 x1 = torch.tensor([[11, 21, 31], [21, 31, 41]], dtype=torch. 阅读全文
posted @ 2024-03-26 11:41 光辉233 阅读(5) 评论(0) 推荐(0) 编辑
摘要: Pytorch有两个读取数据的方式: 使用Dataset 使用DataLoader 本文先介绍第一种——Dataset Dataset与DataLoader区别 Dataset:提供一种方法,去获取数据及其对应的label值 DataLoader:提供一种方法,可以以特定的形式打包数据 Refere 阅读全文
posted @ 2024-03-19 11:11 光辉233 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 在训练一个网络过程中,有下面代码 '''4.训练网络''' print('开始训练') for epoch in range(3): runing_loss = 0.0 for i, data in enumerate(trainloader, 0): inputs, label = data # 阅读全文
posted @ 2024-03-19 10:59 光辉233 阅读(1) 评论(0) 推荐(0) 编辑
摘要: print('开始训练') for epoch in range(3): runing_loss = 0.0 for i,data in enumerate(trainloader,0): inputs,label = data #1.数据加载 if device == 'gpu': inputs 阅读全文
posted @ 2024-03-19 00:13 光辉233 阅读(4) 评论(0) 推荐(0) 编辑