2024-05-12 00:24阅读: 11评论: 0推荐: 0

基于机器学习等延伸出的数学知识补救——关于那些大学学了不及时用就会忘掉的知识

  因为要学机器学习深度学习之类的,那么对数学基础有要求。但是我大学学了高数后我就没怎么用过(至少没用过偏导之类的),挠头。那么就是为了复习,然后重新构建知识谱图,因为笔记丢了(目移),所以会借用一些资料的笔记。

  顺序大概就是学机器学习深度学习接触的数学知识,分类后画AI相关的数学图,大概学完最基础的就会发图(?),一些paper涉及到的数学推导会重新加入到建立完的数学图,然后进行颜色标识。

  在写数学知识的时候,还有可能会写一下公式,公式不一定要记(毕竟我也是新手),但是一定要理解。

  学习算法参考的链接:

    ShowMeAI知识社区

  只看自己看得懂的。

 

 

  K近邻算法涉及到的:

  曼哈顿距离,LP距离,欧式距离,切比雪夫距离。   

   向量和向量空间是线性代数的,由于在我的线性笔记找不到向量的相关概念,所以参考了一些链接:

    【线性代数】矩阵、向量、行列式、特征值与特征向量(掌握这些概念一篇文章就够了)_矩阵自由向量-CSDN博客

    线代复习笔记 (三) 向量空间R^n及其线性变换 - 知乎 (zhihu.com)

  博主还给了一些相关链接,这里不再贴出。

  (如果找到很喜欢的文章想要记录,直接打印成pdf就好了)

  这里只是写一下一些相关。

    LP距离公式的参数如下: 

     看懂了参数的定义后,然后就很简单了。

     这些参数同样可以套在其他距离公式里面。

   

  损失函数相关:

    二元交叉熵损失。 

     上图是gpt给出的公式,当然只是看看就可以了。showmeai给出的解释更好,这里就不贴了。

   损失函数正则化:

    这里加上了一个正则化处理,只是提一下。

   

  to be contiune.

    

   

  

本文作者:程序计算机人

本文链接:https://www.cnblogs.com/clina/p/18187410

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   程序计算机人  阅读(11)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起
  1. 1 Lions Pride Audio artist
  2. 2 Salty Sailor David Arkenstone
  3. 3 Stonefire David Arkenstone
Salty Sailor - David Arkenstone
00:00 / 00:00
An audio error has occurred, player will skip forward in 2 seconds.

Not available