随笔分类 -  机器学习

摘要:指数退化模型定义为 补充: 高斯分布(正态分布) 对数正态分布 正态分布与对数正态分布的性质比较: 阅读全文
posted @ 2023-06-07 17:39 SusieSnail_SUN 阅读(345) 评论(0) 推荐(0) 编辑
摘要:# 路径表示:“D: / test” r“D: \test” “D: //test” # 导入import os#获取当前的工作路径os.getcwd()#传入任意一个path路径,返回的是该路径下所有文件和目录组成的列表path = r“D: \test”os.listdir(path) #传入任 阅读全文
posted @ 2023-05-27 13:29 SusieSnail_SUN 阅读(9) 评论(0) 推荐(0) 编辑
摘要:目录: 1 矩阵乘法1.1 基本算法和符号1.2 结构和效率1.3 分块矩阵与算法1.4 快速矩阵向量积 1.5 矢量化和局部性1.6 并行矩阵乘法 2 矩阵分析法 2.1 线性代数的基本思想 2.2 向量范数 2.3 矩阵范数2.4 奇异值分解2.5 子空间度量2.6 正方形系统的灵敏度2.7 有 阅读全文
posted @ 2023-02-27 16:10 SusieSnail_SUN 阅读(115) 评论(0) 推荐(0) 编辑
摘要:最小二乘 广义上来说其实是机器学习中的平方损失函数: 对应于模型 <span id="MathJax-Span-24" class="mrow"><span id="MathJax-Span-25" class="mi">f&nbsp;的线性和非线性之分,最小二乘也相应地分为线性最小二乘和非线性最小 阅读全文
posted @ 2023-02-27 14:16 SusieSnail_SUN 阅读(437) 评论(0) 推荐(0) 编辑
摘要:交叉熵的公式: p表示真实值,q表示预测值,H(p,q)表示交叉熵损失。 先对 inpu t求 softmax得到每个点的概率,然后在对结果求log,后面就是根据每个点的预测值以及真实值,按照上面的交叉熵公式计算。 torch.nn.functional.cross_entropy() 就是使用上式 阅读全文
posted @ 2023-02-02 13:15 SusieSnail_SUN 阅读(220) 评论(0) 推荐(0) 编辑
摘要:Softmax 分成 soft 和 max 两个部分。max故名思议就是最大值的意思。Softmax的核心在于soft,而 soft 与之相对的是 hard。 hardmax 就是只选出其中一个最大的值 max ,即非黑即白。但是往往在实际中这种方式是不合情理的, 用到了soft的概念,Softma 阅读全文
posted @ 2023-02-02 13:07 SusieSnail_SUN 阅读(279) 评论(0) 推荐(0) 编辑
摘要:# 解决OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.报错问题添加下面两条语句import osos.environ["KMP_DUPLICATE_LIB_OK"] 阅读全文
posted @ 2023-02-02 12:56 SusieSnail_SUN 阅读(68) 评论(0) 推荐(0) 编辑
摘要:学习纪录: 摘自: 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 - LeftNotEasy - 博客园 (cnblogs.com) 主要说明方法思路 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系。特征值分解和奇异值分解的目的都是一样,就是提取出 阅读全文
posted @ 2021-09-03 16:59 SusieSnail_SUN 阅读(1593) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示