上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 16 下一页
摘要: 一、内容梳理 二、笔记 所以情节到底是什么 LOCK(Lead, Objective, Confrontation, Knockout)系统。 主线情节主角只有一个 目标通常分为两部分,想取得某样事物,想逃离某样事务 情节冲突 冲击结尾。 角色、背景、对话这三个调味料。给角色添加一些风味,给角色新的 阅读全文
posted @ 2020-10-13 18:07 ylxn 阅读(225) 评论(0) 推荐(0) 编辑
摘要: 一、背景 在某些场景下我们要判断一个事件能存活多久,这时候我们就需要使用生存分析相关的方法。例如,一些实验中小白鼠在某个时间段的生存概率;或者在日常的打车场景中,一个乘客呼叫了订单,这个订单在等待时间段中的存活概率。 二、风险函数、生存函数与删失数据 假设一个乘客发了一个打车订单,那么在不同时间点被 阅读全文
posted @ 2020-09-21 15:18 ylxn 阅读(3299) 评论(1) 推荐(0) 编辑
摘要: 一、XGBoost算法的原理 1 最终模型形式: XGBoost和GBDT、AdaBoost使用的最终模型形式相同,其中m为第m轮得到的弱模型: $$y_{x}=\sum_{m}^{M}\hat{f}_{m}(x)$$ 2 目标函数 $$L^{(m)}=\sum_{i}^{N}l(y_{i},\ha 阅读全文
posted @ 2020-07-26 22:47 ylxn 阅读(184) 评论(0) 推荐(0) 编辑
摘要: 一、简介 GBDT为梯度提升树,是提升树的一种改进形式。 二、算法原理 (1)初始化弱模型 $$f_{0}(x_{i})=arg\min_{c}\sum_{i=1}^{N}L(y_{i},c)$$ (2)在第m轮模型的计算中 (a)对每个样本i,计算负梯度 $$r_{im}=-\frac{\part 阅读全文
posted @ 2020-07-26 12:12 ylxn 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 摘自李航的《统计学习方法》 一、简介 提升算法(Boosting)是一种常用的统计学习方法。在解决分类或者回归问题当中,通过训练可以得到许多若模型,可以对这些若模型进行线性组合从而得到一个更可靠的模型,从而提升模型的准确率或者精度,这就是Boosting算法。 对于弱分类器的产生以及强分类器的组合, 阅读全文
posted @ 2020-07-25 11:11 ylxn 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 一、内容梳理 二、笔记 最小化误差: 切比雪夫准则 极小化绝对偏差之和 最小二乘准则 蒙特卡洛模拟法: 估计曲线下面积:在一个矩形内,过矩形两边画一条曲线,求曲线下的面积 $\frac{S_{curve}}{S_{rectangle}}=\frac{Point_{curve}}{Point_{rec 阅读全文
posted @ 2020-07-24 22:33 ylxn 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 一、文章内容梳理: 二、内容概要 沿着历史的时间线,讲述了掌权者掌握权利手段的变化 暴力->金钱->知识 讲述了不同层面的权利的转移,例如国家,公司等。 掌握了信息,就掌握了金钱和权利,因此文章有很大一部分板块介绍了信息相关内容 804页 阅读全文
posted @ 2020-07-18 22:12 ylxn 阅读(266) 评论(0) 推荐(0) 编辑
摘要: 一、内容结构 二、笔记 第二章 有限马尔可夫决策的三个基本方法:动态规划、蒙特卡罗方法和时序差分学习 K臂赌博机问题 动作的选择贪心,或者 $\epsilon$概率随机选择策略 增量式实现估计 $Q_{n+1}=Q_{n}+\frac{1}{n}[R_{n}-Q_{n}]$ 估计的更新方式:新估计值 阅读全文
posted @ 2020-06-30 12:19 ylxn 阅读(372) 评论(0) 推荐(0) 编辑
摘要: 一、五十音 1、平假名(Hiragana) あ(a) い(i) う(u) え(e) お(o) か (ka) き (ki) く (ku) け (ke) こ (ko) さ (sa) し (shi) す (su) せ (se) そ (so) た(ta) ち (chi) つ (tu) て (te) と ( 阅读全文
posted @ 2020-06-30 11:05 ylxn 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 一、各章内容 阅读全文
posted @ 2020-06-29 23:24 ylxn 阅读(178) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 16 下一页