会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
bianxr
导航
博客园
首页
新随笔
联系
订阅
管理
公告
2024年7月13日
生成对抗网络编程
摘要: 一、基础知识 PyTorch提供简单的计算误差方法。最简单的均方误差:先计算每个输出节点的实际输出和预期输出之差的平方,再计算平均值。 nn.MSELoss() 误差函数&&损失函数 误差是指预期输出与实际输出之间的差值。 损失是指根据误差计算得到的,要考虑实际情况。 1、构建和训练GAN的推荐步骤
阅读全文
posted @ 2024-07-13 16:06 程序媛1234
阅读(11)
评论(0)
推荐(0)
编辑
2024年7月11日
线性模型
摘要: 一、大致步骤 DataSet Model Training infering 二、 数据集不能全覆盖真实分布 训练集又要分出一部分做成开发集,为了防止过拟合 损失loss=(y_hat-y)^2
阅读全文
posted @ 2024-07-11 16:44 程序媛1234
阅读(2)
评论(0)
推荐(0)
编辑
2024年7月3日
连通性分析
摘要: 1、脑电连通指标 1)基于相干的指标 2)基于相位同步的指标 3)基于广义同步的指标 4)基于格兰杰因果的指标 2、基于相干的指标 1)相干指标的范围在0~1 2)局限性:仅能评估两个信号的线性依赖关系,不能检测他们之间的非线性关系;会受到信号波幅的影响;不能分离出容积求导对脑区间连通性的影响 3)
阅读全文
posted @ 2024-07-03 19:25 程序媛1234
阅读(17)
评论(0)
推荐(0)
编辑
2024年6月27日
单试次分析
摘要: 一、为什么会提出单试次分析 1、传统的跨试次平均法用于增强脑响应信号的信噪比,以便提取ERP。(跨试次平均法主要是假设事件相关脑响应信号在不同的试次中是稳定不变的,即潜伏期、振幅和形态在不同试次中保持不变) 2、但是该方法会造成事件相关同步化或者时间相关去同步化的丢失,也会使事件相关脑响应的跨试次变
阅读全文
posted @ 2024-06-27 14:57 程序媛1234
阅读(24)
评论(0)
推荐(0)
编辑