2019年6月4日

分数多项式Fractional polynomial

摘要: STATA:https://www.stata.com/meeting/2sweden/lambert_fpma.pdf http://mfp.imbi.uni-freiburg.de/fp 阅读全文

posted @ 2019-06-04 16:05 OAREII 阅读(1374) 评论(0) 推荐(0) 编辑

2019年6月2日

Linear mixed effects model

摘要: https://blog.csdn.net/weixin_40645816/article/details/82110126 阅读全文

posted @ 2019-06-02 19:51 OAREII 阅读(620) 评论(0) 推荐(0) 编辑

2019年5月5日

协方差矩阵

摘要: https://blog.csdn.net/itplus/article/details/11452743 阅读全文

posted @ 2019-05-05 10:12 OAREII 阅读(103) 评论(0) 推荐(0) 编辑

2019年4月15日

FDR & FWE

摘要: H0为真:没有激活 H1为真:存在激活 Declared:H0没有激活 正确 错误(假阴性) Declared:H1存在激活 错误(假阳性) 正确 FDR: false discorvery rate FDR(False Discovery Rate) 校正法 FDR错误控制法是Benjamini于 阅读全文

posted @ 2019-04-15 20:09 OAREII 阅读(1701) 评论(0) 推荐(0) 编辑

2019年3月27日

SPM

摘要: 安装:SPM实际不是一个独立的软件,它相当于一个用Matlab程序编写的工具箱,必须依赖Matlab的环境完成其功能。1.首先将下载好的SPM8程序包导入Matlab,复制整个spm8文件夹到MATLAB的安装路径:MATLAB\R2009a\toolbox\下。然后运行Matlab,在其主窗口选择 阅读全文

posted @ 2019-03-27 17:27 OAREII 阅读(556) 评论(0) 推荐(0) 编辑

2019年3月24日

高斯核 卷积

摘要: https://blog.csdn.net/dcrmg/article/details/52304446 原文:https://blog.csdn.net/weixin_39124778/article/details/78411314 计算 1)一维卷积: y(t)=g(k)*x(k)=$g(k) 阅读全文

posted @ 2019-03-24 10:47 OAREII 阅读(2831) 评论(0) 推荐(0) 编辑

graph theory 图论

摘要: https://www.cnblogs.com/suho/articles/8644154.html https://www.cnblogs.com/minks/p/6228493.html 模块度modularity:https://blog.csdn.net/marywbrown/article 阅读全文

posted @ 2019-03-24 09:45 OAREII 阅读(253) 评论(0) 推荐(0) 编辑

2019年3月22日

fALFF

摘要: fALFF was calculated using DPARSF. Briefly, for a given voxel, the time series was first converted to the frequency domain using a “fast Fourier trans 阅读全文

posted @ 2019-03-22 11:38 OAREII 阅读(356) 评论(0) 推荐(0) 编辑

主要的几个脑网络

摘要: ——整理自eegfmri的博客http://blog.sina.com.cn/s/blog_60a7516201019qgk.html 按照网络的功能,以及单突触(monosynaptic)和多突触(polysynaptic)的分布情况,笔者认为把全脑分成三大阵营:感知皮层系统、联合皮层系统和伪迹系 阅读全文

posted @ 2019-03-22 10:51 OAREII 阅读(13809) 评论(0) 推荐(0) 编辑

2019年3月18日

gradient descent

摘要: 梯度下降的两种参数更新方式 1.Batch gradient descent 批梯度下降 遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数就要把数据集里面的所有样本都看一遍,计算量开销大,计算速度慢。 2.Stochastic gradient descen 阅读全文

posted @ 2019-03-18 21:08 OAREII 阅读(174) 评论(0) 推荐(0) 编辑

导航