摘要: 一、矩阵求导: 一般来讲,我们约定x=(x1,x2,x3....xn)的转置(分母布局,关于分子布局自行参考网上)。 下面介绍3种常见的矩阵求导 1、向量对向量求导 注释: Numerator layout : 分子布局 Denominator layout : 分母布局 《多元统计分析》课堂,按照 阅读全文
posted @ 2020-11-06 17:25 Chen洋 阅读(2301) 评论(0) 推荐(0) 编辑
摘要: 日常生活中,很多童鞋可能要观看vip视频资源,但是碍于资源(qian)不足(gou),本期给大家推荐一个好用的资源,可以在线解析大部分视频Vip资源。 这是某好友在网上的一个网站给扒下来的,其中css及js文件均还是原网站的,建议保存到本地,或者弄个cdn存替一下。 复制以下代码存为index.ht 阅读全文
posted @ 2020-11-06 16:05 Chen洋 阅读(19870) 评论(0) 推荐(0) 编辑
摘要: 精度矩阵:precision matrix 又被称为 concentration matrix。如果两个随机变量的协方差矩阵(covariance matrix)的逆矩阵存在,那这个逆矩阵就被称为precison matrix. 百科定义:方差矩阵的逆矩阵称精度矩阵 郑家亨,统计大辞典,中国统计出版 阅读全文
posted @ 2020-11-05 10:34 Chen洋 阅读(2171) 评论(0) 推荐(0) 编辑
摘要: 规范化技术一般用于解决模型的过拟合问题,本文将深入浅出的介绍几种常见的正则化技术。首先来看看什么是过拟合。 1、什么是过拟合 生活中我们常听到一些地域性偏见的话,如“河南人偷井盖”,“东北人都是黑社会”,“投资不过山海关”等等。但是每个省份这么多人,有好人有坏人,真的就一句话概括了吗?显然这犯了“以 阅读全文
posted @ 2020-11-04 16:21 Chen洋 阅读(10247) 评论(1) 推荐(1) 编辑
摘要: 1. 梯度下降法(Gradient Descent) 梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局最优解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。 梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向, 阅读全文
posted @ 2020-11-04 15:27 Chen洋 阅读(534) 评论(0) 推荐(0) 编辑
摘要: 前言 在监督式机器学习中,无论是回归问题还是分类问题,都少不了使用损失函数(Loss Function)。**损失函数(Loss Function)**是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。 若损失函数很小,表明机器学习模型与数据真实分布很接近,则模型性能良好;若损失函数很大 阅读全文
posted @ 2020-11-04 14:51 Chen洋 阅读(5286) 评论(0) 推荐(1) 编辑
摘要: “损失函数”是机器学习优化中至关重要的一部分。L1、L2损失函数相信大多数人都早已不陌生。那你了解Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失函数么?这些可都是机器学习大牛最常用的回归损失函数哦! 机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数 阅读全文
posted @ 2020-11-04 13:58 Chen洋 阅读(4602) 评论(0) 推荐(1) 编辑
摘要: 声明一下,本文只是介绍一下最基础的基于内容的推荐系统(Content-based recommender system)的工作原理,其实基于内容的推荐系统也分三六九等,这里只是简单的较少一下最原始的、最基本的工作流程。 基于内容的推荐算法思路很简单,它的原理大概分为3步: 1、为每个物品(Item) 阅读全文
posted @ 2020-11-04 11:19 Chen洋 阅读(1146) 评论(1) 推荐(0) 编辑
摘要: 主要的聚类算法可以划分为如下几类:基于划分方法、基于层次方法、基于密度的方法、基于网格的方法以及基于模型的方法。目前在许多领域都得到了广泛的研究和成功的应用,如用于模式识别、数据分析、图像处理、市场研究、客户分割、Web文档分类等。常用的有k-means聚类算法、凝聚型层次聚类算法、神经网络聚类算法 阅读全文
posted @ 2020-11-03 20:18 Chen洋 阅读(4356) 评论(0) 推荐(0) 编辑
摘要: 先来说一下这几者之间的关系:人工智能包含机器学习,机器学习包含深度学习(是其中比较重要的分支)。深度学习源自于人工神经网络的研究,但是并不完全等于传统神经网络。所以深度学习可以说是在传统神经网络基础上的升级。神经网络一般有输入层->隐藏层->输出层,一般来说隐藏层大于2的神经网络就叫做深度神经网络, 阅读全文
posted @ 2020-11-03 19:38 Chen洋 阅读(1734) 评论(0) 推荐(0) 编辑