03 2018 档案
摘要:List——列表 Tuple——元组 Dict——字典 Set——集合
阅读全文
摘要:优先级: 注意: 幂运算:比其左侧的一元操作符优先级高,比右侧的一元操作符优先级低 逻辑运算的优先级不同:not > and > or
阅读全文
摘要:《历史》 【历史:远古】 【历史:古代】以中国第一视角展开 历史:古代:东周 历史:古代:秦朝 历史:古代:西汉 历史:古代:新朝 历史:古代:东汉 历史:古代:三国 历史:古代:西晋 历史:古代:东晋 历史:古代:南北朝 历史:古代:隋朝 历史:古代:唐朝 历史:古代:宋朝 历史:古代:元朝 历史
阅读全文
摘要:原文链接:https://www.cnblogs.com/wenyi1992/p/7685131.html 【基本流程】 分类决策树的核心思想就是在一个数据集中找到一个最优特征,然后从这个特征的选值中找一个最优候选值(这段话稍后解释),根据这个最优候选值将数据集分为两个子数据集,然后递归上述操作,直
阅读全文
摘要:《效率篇》 【效率:排版】 效率:排版:LATEX 【效率:标记语言】 效率:标记语言:Markdown 【效率:版本管理】 效率:版本管理:Git 效率:版本管理:Github
阅读全文
摘要:《数学篇》 【数学:微积分】 数学:微积分:导数 数学:微积分:积分 【数学:线性代数】 数学:线性代数:行列式 数学:线性代数:矩阵 【数学:优化】 数学:优化:梯度下降法 数学:优化:牛顿法 数学:优化:最小二乘法 数学:优化:拉格朗日乘子法 【数学:概率】 数学:概率:基本概念 数学:概率:一
阅读全文
摘要:《机器学习篇》 【机器学习:数据处理】 机器学习:数据处理:数据清洗 机器学习:数据处理:数据转换 机器学习:数据处理:数据降维 【机器学习:特征工程】 机器学习:特征工程:特征选择 机器学习:特征工程:特征提取 机器学习:特征工程:模型评估与选择 【机器学习:算法模型】 机器学习:算法模型:广义线
阅读全文
摘要:《计算机技术篇》 【计算机技术:编程语言】 计算机技术:编程语言:C & C++ 计算机技术:编程语言:Java 计算机技术:编程语言:Python 计算机技术:编程语言:Scala 【计算机技术:数据结构与算法】 计算机技术:数据结构与算法:概述 计算机技术:数据结构与算法:数据结构——线性表 计
阅读全文
摘要:列一个大纲,也当作目录,更是一个蓝图。 (以下链接指向具体内容或下一级目录) 【数学】————————微积分,线性代数,概率论,统计,优化,随机过程 【数学】————————微积分,线性代数,概率论,统计,优化,随机过程 【数学】————————微积分,线性代数,概率论,统计,优化,随机过程 【数学
阅读全文
摘要:【参数估计的基本原理】 估计量与估计值 点估计与区间估计(置信区间,置信水平) 评价估计量的标准(无偏性,有效性,相合性) 【一个总体参数的区间估计】 总体均值的区间估计 总体比例的区间估计 总体方差的区间估计 【两个总体参数的区间估计】 两个总体均值之差的区间估计 两个总体比例之差的区间估计 两个
阅读全文
摘要:【M-P神经元模型】 神经网络中最基本的成分是神经元($Neuron$)模型。 在生物神经网络中,每个神经元与其他神经元相连,当它“兴奋”时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位; 如果某神经元的电位超过了一个“阈值”($threshold$),那么它就会被激活,即“兴奋”起来
阅读全文
摘要:集中趋势的度量 【分类数据:众数】 【顺序数据:中位数 & 分位数】 【数值型数据:平均数】 1. 简单平均数 & 加权平均数 2. 几何平均数 3. 调和平均数 离散趋势度量 偏态与峰态的度量
阅读全文
摘要:随机变量 离散型随机变量及其分布律 随机变量的分布函数 连续型随机变量及其概率密度 随机变量的函数的分布 随机变量 离散型随机变量及其分布律 随机变量的分布函数 连续型随机变量及其概率密度 随机变量的函数的分布 随机变量 离散型随机变量及其分布律 随机变量的分布函数 连续型随机变量及其概率密度 随机
阅读全文
摘要:本节我们将利用两个事件相互独立的概念引出两个随机变量相互独立的概念。 【定义】 【例子】 【定理】
阅读全文
摘要:二维随机变量 边缘分布 条件分布 相互独立的随机变量 两个随机变量的函数的分布 二维随机变量 边缘分布 条件分布 相互独立的随机变量 两个随机变量的函数的分布 二维随机变量 边缘分布 条件分布 相互独立的随机变量 两个随机变量的函数的分布
阅读全文
摘要:【引入】 对于二维随机变量 $(X,Y)$ ,我们除了讨论 $X$ 与 $Y$ 的数学期望和方差除外, 还需要讨论描述 $X$ 与 $Y$ 之间相互关系的数字特征。 在《数字特征:方差》方差性质3的证明中,我们已经看到, 如果两个随机变量 $X$ 与 $Y$ 是相互独立的,则 $E\{ [X-E(X
阅读全文
摘要:【引入】 有一批灯泡,知其平均寿命是 $E(X)=1000$ (小时)。仅由这一指标我们还不能判定这批灯泡的质量好坏。 事实上,有可能其中绝大部分灯泡的寿命都在950~1050小时; 也有可能其中约有一半是高质量的,它们的寿命大约有1300小时,另一半却是质量很差的,其寿命大约只有700小时, 为要
阅读全文
摘要:已经介绍了随机变量的分布函数、概率密度和分布律,它们都能完整地描述随机变量,但在某些事激活理论问题中,人们感兴趣于某些能描述随机变量某一种特征的常熟, 例如: 一篮球队上场比赛的运动员的身高是一个随机变量,人们常关心上场运动员的平均身高, 一个城市一户家庭拥有汽车的辆数是一个随机变量,在考察城市的交
阅读全文
摘要:随机变量的数学期望 【引入】 一射手进行打靶练习,规定射入区域 $e_2$ 得2分,射入区域 $e_1$ 得1分,脱靶,即射入区域 $e_0$ ,得0分。 射手一次射击得分数 $X$ 是一随机变量。设 $X$ 的分布律为 $P\{ X=k\} =p_k,k=1,2,…$ 现在射击 $N$ 次,其中得
阅读全文
摘要:【汉高祖刘邦】 匈奴来犯送妹子和亲 白马之盟 【文景之治】 仁政,七国之乱 【汉武帝刘彻】 卫青打匈奴 东打朝鲜 司马相如打西南,夜郎自大 罢黜百家独尊儒术,董仲舒 【昭宣中兴】 继续打匈奴 【汉成帝】 外戚干政 【最后】 王莽篡汉
阅读全文
摘要:东周(前770 - 前256) 《春秋》 【烽火戏诸侯】 西周时周幽王为博得褒姒一笑,点燃了烽火台,戏弄了诸侯。 褒姒看了果然哈哈大笑。幽王很高兴,因而又多次点燃烽火。 后来诸侯们都不相信了,也就渐渐不来了。 后来“犬戎”攻破“镐京”,杀死周幽王,后来周幽王的儿子周平王即位,开始了东周时期。 【平王
阅读全文
摘要:东汉末年 黄巾起义 太监逆袭 董卓乱政 群雄割据 三足鼎立
阅读全文
摘要:列一个大纲,也当作目录,更是一个蓝图。 (以下链接指向具体内容或下一级目录) 历史————————远古史,中国历史,世界历史 哲学 逻辑 历史————————远古史,中国历史,世界历史 哲学 逻辑 历史————————远古史,中国历史,世界历史 哲学 逻辑 历史————————远古史,中国历史,世界
阅读全文
摘要:确定性现象:向上抛一个石子必然下落 随机现象:相同条件下抛同一枚硬币,其结果可能是正面朝上,也可能是反面朝上,并且在每次抛掷之前无法肯定抛掷的结果是什么; 用同一门炮向同一目标射击,每次弹着点不尽相同,在一次射击之前无法预测弹着点的确切位置。 统计规律性:多次重复抛一枚硬币得到正面朝上大致有一半,同
阅读全文
摘要:均方误差 均方误差有非常好的几何意义,它对应了常用的欧几里得距离或简称“欧氏距离”($Euclidean\ distance$) 最小二乘法 基于均方误差最小化来进行模型求解的方法称为“最小二乘法”($least\ square method$) 最小二乘法用途很广,不仅局限于“线性回归”
阅读全文
摘要:基本形式 【引言:为什么学习线性模型】 线性模型($linear\ model$)形式简单、易于建模,但却蕴含着机器学习中一些重要的基本思想。 许多功能更为强大的非线性模型($nonlinear\ model$)可在线性模型的基础上通过引入层级结构或高级映射而得。 所以,首先学习线性模型是必要的。
阅读全文
摘要:【假设检验的基本问题】 假设问题的提出 假设的表达式 两类错误 假设检验的流程 利用P值进行决策 单侧检验 【一个总体参数的检验】 检验统计量的确定 总体均值的检验 总体比例的检验 总体方差的检验 【两个总体参数的检验】 检验统计量的确定 两个总体均值之差的检验 两个总体比例之差的检验 两个总体方差
阅读全文
摘要:代价敏感错误率 代价曲线
阅读全文
摘要:【引入原因】 错误率和精度虽常用,但并不能满足所有任务需求。 什么任务需求呢?以西瓜问题为例,假定瓜农拉来一车西瓜,我们用训练好的模型对这些西瓜进行判别,显然,错误率衡量了有多少比例的瓜被判别错误, 但是,若我们关心的是“挑出的西瓜中有多少比例是好瓜”,或者“所有好瓜中有多少比例被挑了出来”, 那么
阅读全文
摘要:1.1引言 喧闹的教室突然变得鸦雀无声,没有抬头的你第一反应就是老板进了教室,赶紧就收起了手里的手机。 结果抬头一看,老板果真进来了;或者有时候抬头一看,什么也没有,大家哈哈一笑。 为什么?为什么你没抬头看就想到会是老板进来了? 因为你以前有过相同或者相似的经历,也就是“经验”。 所以你再一次经历的
阅读全文
摘要:2.1经验误差与过拟合 定义:误差(error):学习器的实际预测输出与样本的真是输出之间的差异 定义:学习器在训练集上的误差称为“训练误差”(training error)或“经验误差”(empirical error); 在新样本上的误差称为“泛化误差”(generalization error
阅读全文
摘要:Tensorflow,深度学习框架,由谷歌开源 tensor翻译为张量,flow翻译为流,顾名思义,Tensorflow的逻辑就是让张量流动 tensor是Tensorflow管理数据的形式,Tensorflow并不保存数据,而是保存得到这个数的计算过程 导入(行业习惯) 定义常量 定义变量 初始化
阅读全文
摘要:【基础语法】 Python:基础语法:绪论与注释 Python:基础语法:数据类型 & 变量 & 常量 Python:基础语法:运算及其优先级 Python:基础语法:IO Python:基础语法:控制流与注意事项 Python:基础语法:内置数据结构 Python:基础语法:函数 Python:基
阅读全文