07 2020 档案

摘要:安装visdom pip install visdom 启动visdom服务 python -m visdom.server visdom绘制各种图形: visdom属性介绍: 实例: from visdom import Visdom import numpy as np import math 阅读全文
posted @ 2020-07-23 10:40 kkzhang 阅读(385) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-07-03 23:38 kkzhang 阅读(1595) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-07-03 23:29 kkzhang 阅读(178) 评论(0) 推荐(0) 编辑
摘要:关于期望、方差、协方差、协方差矩阵的定义和计算:🔗 期望是线性的。方差(variance)衡量的是对数据x依据它的概率分布采样时,随机变量x的函数值会呈现多大的差异。方差的平方根为标准差(standard deviation)。协方差(covariance)在某种意义上给出了两个变量线性相关性的强 阅读全文
posted @ 2020-07-03 23:11 kkzhang 阅读(607) 评论(0) 推荐(0) 编辑
摘要:以下是Kalman的收敛性证明思路: cite:Stochastic Processes and Filtering Theory 阅读全文
posted @ 2020-07-03 22:07 kkzhang 阅读(621) 评论(0) 推荐(0) 编辑
摘要:邻近梯度下降法 对于无约束凸优化问题,当目标函数可微时,可以采用梯度下降法求解;当目标函数不可微时,可以采用次梯度下降法求解;当目标函数中同时包含可微项与不可微项时,常采用邻近梯度下降法求解。上述三种梯度算法均属于离线批处理类型算法,在大规模的数据问题中,每次迭代都需要计算整个数据集梯度,因而需要较 阅读全文
posted @ 2020-07-03 21:33 kkzhang 阅读(4271) 评论(0) 推荐(0) 编辑
摘要:经典的损失函数: ①交叉熵(分类问题):判断一个输出向量和期望向量有多接近。交叉熵刻画了两个概率分布之间的距离,他是分类问题中使用比较广泛的一种损失函数。概率分布刻画了不同事件发生的概率。 熵的定义:解决了对信息的量化度量问题,香农用信息熵的概念来描述信源的不确定度,第一次用数学语言阐明了概率与信息 阅读全文
posted @ 2020-07-03 13:22 kkzhang 阅读(1715) 评论(0) 推荐(0) 编辑