上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 124 下一页
摘要: uboot命令分析+实现 先贴一个重要结构,位于uboot/include/command.h,这个结构代表每个uboot命令 struct cmd_tbl_s { char *name; /* Command Name */ int maxargs; /* maximum number of ar 阅读全文
posted @ 2020-04-14 11:31 瘋耔 阅读(682) 评论(0) 推荐(0) 编辑
摘要: Uboot全称Universal Boot Loader,一个遵循GPL协议的的开源项目,其作用是引导操作系统,支持引导linux、VxWorks、Solaris等操作系统;其源码组织形式和linux源码很相似,编译也可参照linux源码编译,且包含许多linux源码中的驱动源码,所以uboot实际 阅读全文
posted @ 2020-04-14 11:08 瘋耔 阅读(1284) 评论(0) 推荐(0) 编辑
摘要: One Millisecond Face Alignment with an Ensemble of Regression Trees CVPR2014 http://www.csc.kth.se/~vahidk/face_ert.html https://github.com/suzuichi/O 阅读全文
posted @ 2020-04-12 21:37 瘋耔 阅读(772) 评论(0) 推荐(0) 编辑
摘要: landmark是一种人脸部特征点提取的技术,Dlib库中为人脸68点标记,在《调用Dlib库进行人脸关键点标记》一文中有效果和标定点序号的示意图。今后可采用landmark中的点提取眼睛区域、嘴巴区域用于疲劳检测,提取鼻子等部分可用于3D姿态估计。 Dlib库使用《One Millisecond 阅读全文
posted @ 2020-04-12 18:16 瘋耔 阅读(1327) 评论(0) 推荐(0) 编辑
摘要: 1.牛顿法:是通过求解目标函数的一阶导数为0时的参数,进而求出目标函数最小值时的参数。 收敛速度很快。 海森矩阵的逆在迭代过程中不断减小,可以起到逐步减小步长的效果。 缺点:海森矩阵的逆计算复杂,代价比较大,因此有了拟牛顿法。 2.梯度下降法:是通过梯度方向和步长,直接求解目标函数的最小值时的参数。 阅读全文
posted @ 2020-04-12 15:35 瘋耔 阅读(807) 评论(0) 推荐(0) 编辑
摘要: 正定矩阵(PD): 给定一个大小为 \(n\times n\) 的实对称矩阵 \(A\) ,若对于任意长度为 \(n\) 的非零向量 \(X\),有 \(X^TAX>0\) 恒成立,则矩阵 \(A\) 是一个正定矩阵。 半正定矩阵(PSD) 给定一个大小为 \(n\times n\) 的实对称矩阵  阅读全文
posted @ 2020-04-11 21:42 瘋耔 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 综述: 1. Jacobian 向量分析中,雅可比矩阵是一阶偏导数以一定方式排列成的矩阵。在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中。 雅可比矩阵 雅可比矩阵体现了一个可微方程与给出点的最优线性逼近,雅可比矩阵类似于多元函数的导数.。 雅可比行列式 如 阅读全文
posted @ 2020-04-11 14:16 瘋耔 阅读(1322) 评论(0) 推荐(0) 编辑
摘要: 无线WiFi信道重叠会互相干扰。建议选择1,6,11这三个互不干扰的信道。当然,周围WiFi设备较少的情况下可以选择自动模式。 1.无线WiFi2.4Ghz频段的WiFi总共有14个信道,如下图所示: 整个频段内只有3个互不干扰信道,分别是1,6,11。 802.11工作组划分了两个独立的频段,2. 阅读全文
posted @ 2020-04-09 19:04 瘋耔 阅读(2598) 评论(0) 推荐(0) 编辑
摘要: 引言如果要将极大似然估计应用到线性回归模型中,模型的复杂度会被两个因素所控制:基函数的数目(的维数)和样本的数目。尽管为对数极大似然估计加上一个正则项(或者是参数的先验分布),在一定程度上可以限制模型的复杂度,防止过拟合,但基函数的选择对模型的性能仍然起着决定性的作用。 上面说了那么大一段,就是想说 阅读全文
posted @ 2020-04-09 15:38 瘋耔 阅读(1327) 评论(0) 推荐(0) 编辑
摘要: 个人理解: 最大似然估计:只是对似然的处理,概率乘积转概率密度乘积,取对数转加,求导得估计值; 贝叶斯估计:由先验乘似然得后验, 这个就是贝叶斯学习过程:在前一个训练集合的后验概率上,乘以新的测试样本点的似然估计,得到新的集合的后验概率,这样,相当于成为了的先验概率分布: ; 原文:https:// 阅读全文
posted @ 2020-04-09 15:08 瘋耔 阅读(1355) 评论(0) 推荐(0) 编辑
摘要: Introduction HW/IP features Features Supported by Driver Missing features, Known Issues, Limitations Kernel Configuration Devicetree Test Procedure Ex 阅读全文
posted @ 2020-04-09 09:02 瘋耔 阅读(756) 评论(0) 推荐(0) 编辑
摘要: -- -- 阅读全文
posted @ 2020-04-08 23:04 瘋耔 阅读(481) 评论(0) 推荐(0) 编辑
摘要: 1. 有时候单一高斯分布不能很好的描述分布 image.png 上图左面用单一高斯分布去描述,显然没有右图用两个高斯分布去描述的效果好。 2. 引入混合高斯分 这里插一句,为什么是“高斯混合模型”,而不是别的混合模型,因为从中心极限定理知,只要K足够大,模型足够复杂,样本量足够多,每一块小区域就可以 阅读全文
posted @ 2020-04-08 11:00 瘋耔 阅读(423) 评论(0) 推荐(0) 编辑
摘要: 边缘分布(Marginal Distribution)指在概率论和统计学的多维随机变量中,只包含其中部分变量的概率分布。 参阅Wikipedia举例,下图中,X和Y遵从绿圈内所示的二元正态分布,红线和蓝线分别表示Y变量和X变量的边缘分布 阅读全文
posted @ 2020-04-07 21:37 瘋耔 阅读(8735) 评论(0) 推荐(0) 编辑
摘要: 正态分布是与中的定量现象的一个方便模型。各种各样的心理学测试分数和现象比如计数都被发现近似地服从正态分布。 开始前,先看几个重要概念: 概率函数:把事件概率表示成关于事件变量的函数 概率分布函数:一个随机变量ξ取值小于某一数值x的概率,这概率是x的函数,称这种函数为随机变量ξ的分布函数,简称分布函数 阅读全文
posted @ 2020-04-07 19:29 瘋耔 阅读(864) 评论(0) 推荐(0) 编辑
上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 124 下一页
跳至侧栏