随笔分类 - 机器学习
摘要:指数退化模型定义为 补充: 高斯分布(正态分布) 对数正态分布 正态分布与对数正态分布的性质比较:
阅读全文
摘要:# 路径表示:“D: / test” r“D: \test” “D: //test” # 导入import os#获取当前的工作路径os.getcwd()#传入任意一个path路径,返回的是该路径下所有文件和目录组成的列表path = r“D: \test”os.listdir(path) #传入任
阅读全文
摘要:目录: 1 矩阵乘法1.1 基本算法和符号1.2 结构和效率1.3 分块矩阵与算法1.4 快速矩阵向量积 1.5 矢量化和局部性1.6 并行矩阵乘法 2 矩阵分析法 2.1 线性代数的基本思想 2.2 向量范数 2.3 矩阵范数2.4 奇异值分解2.5 子空间度量2.6 正方形系统的灵敏度2.7 有
阅读全文
摘要:最小二乘 广义上来说其实是机器学习中的平方损失函数: 对应于模型 <span id="MathJax-Span-24" class="mrow"><span id="MathJax-Span-25" class="mi">f 的线性和非线性之分,最小二乘也相应地分为线性最小二乘和非线性最小
阅读全文
摘要:交叉熵的公式: p表示真实值,q表示预测值,H(p,q)表示交叉熵损失。 先对 inpu t求 softmax得到每个点的概率,然后在对结果求log,后面就是根据每个点的预测值以及真实值,按照上面的交叉熵公式计算。 torch.nn.functional.cross_entropy() 就是使用上式
阅读全文
摘要:Softmax 分成 soft 和 max 两个部分。max故名思议就是最大值的意思。Softmax的核心在于soft,而 soft 与之相对的是 hard。 hardmax 就是只选出其中一个最大的值 max ,即非黑即白。但是往往在实际中这种方式是不合情理的, 用到了soft的概念,Softma
阅读全文
摘要:# 解决OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.报错问题添加下面两条语句import osos.environ["KMP_DUPLICATE_LIB_OK"]
阅读全文
摘要:学习纪录: 摘自: 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 - LeftNotEasy - 博客园 (cnblogs.com) 主要说明方法思路 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系。特征值分解和奇异值分解的目的都是一样,就是提取出
阅读全文