摘要: 凸包 参考: "博客" 凸包问题是指在n个点中,寻找一个凸多边形,使所有的点在凸多边形的边界或者内部。 首先,x轴最大最小点都在凸包边界上,y轴最大最小点都在凸包边界上。面试官提醒可以使用扫描法,就是假设使用一根绳子绕逆时针方向旋转,被绕到的都在凸包边界上。 思路简单清晰,但是在具体实现方面遇到了困 阅读全文
posted @ 2019-07-16 15:23 静_渊 阅读(210) 评论(0) 推荐(0) 编辑
摘要: 快速排序 PYTHON 1. 不那么好看的快排,参考 "博客" 2. 好看一点的快排,参考 "博客" python def quick_sort(arr,l,r): if l 阅读全文
posted @ 2019-07-14 16:57 静_渊 阅读(3153) 评论(0) 推荐(0) 编辑
摘要: torchtext的使用 文本预处理流程: file loading Tokenization Vocab Numericalize/Indexify 词映射成 index word vector 词向量 Batching torchtext的处理流程 torchtext.data.Field 定义 阅读全文
posted @ 2019-07-12 23:45 静_渊 阅读(5183) 评论(1) 推荐(0) 编辑
摘要: CLASSIFYING NAMES WITH A CHARACTER LEVEL RNN "教程链接" 从这个教程学到的主要内容 如何读取一个文件夹下的全部文件; 如何把Unicode字符转成纯ascii字符; pytorch的训练流程 创建输入和目标; 前向传播; 计算损失; 后向更新; 返回损失 阅读全文
posted @ 2019-07-06 20:48 静_渊 阅读(476) 评论(0) 推荐(0) 编辑
摘要: ( leetcode 4 ) 二分法查找两个有序数组的中位数 注释:python2和python3除号的处理不同,python2自动转为int类型,python3保留小数; python class Solution: def findMedianSortedArrays(self, nums1: 阅读全文
posted @ 2019-06-05 10:32 静_渊 阅读(115) 评论(0) 推荐(0) 编辑
摘要: GBDT 和 XGBoost 决策树 选择最优划分属性; 熵 信息熵是衡量样本集合纯度的常用指标。假设当前样本集合中第$k$类所占的比例为 $p_k$,则 $D$ 的信息熵为: $$ \operatorname{Ent}(D)= \sum_{k=1}^{ | \mathcal{Y |}} p_{k} 阅读全文
posted @ 2019-05-27 14:35 静_渊 阅读(300) 评论(0) 推荐(0) 编辑
摘要: 支持向量机 核心思想是间隔最大化 基本形式 假设划分超平面可以使用下述线性方程来描述: $$ \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b=0 $$ 则样本空间中的任一点到分隔超平面的距离为: $$ r=\frac{\left|\boldsymbol{w} 阅读全文
posted @ 2019-05-27 10:38 静_渊 阅读(267) 评论(0) 推荐(0) 编辑
摘要: 贝叶斯分类器 频率学派和贝叶斯学派分歧: 频率学派认为参数虽然未知,但是是客观存在的固定值,可通过优化似然函数确定固定值; 贝叶斯学派认为参数是未观察到的随机变量,本身也有分布,因此可假设参数的先验分布,根据观察到的数据计算参数的后验分布; 贝叶斯公式 $$ P(y|x)=\frac{P(y)P(x 阅读全文
posted @ 2019-05-21 10:27 静_渊 阅读(224) 评论(0) 推荐(0) 编辑
摘要: 集成学习 集成学习通常是通过构建多个学习器来完成学习任务。 同质集成 : 集成中只包含同种类型的学习器; 异质集成 : 集成中的个体学习器是不同的种类; 问题 一般经验中,把一些好与坏的学习器集合到一起,最终的效果是比好的要差一点,比最差的要好一点; 问题:如何获得比最好的单一学习器更好的效果 集成 阅读全文
posted @ 2019-05-20 10:48 静_渊 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 逻辑斯谛回归 逻辑斯谛回归模型和最大熵模型都是对数线性模型。 逻辑斯谛分布 设$X$是随机变量 二项式逻辑斯谛回归模型 $$ p(Y=1|x)=\frac{exp(w\cdot x+b)}{1+exp(w\cdot x+b)} $$ 对于二分类有 $$ P(y|x)={h_{\theta}(x)}^ 阅读全文
posted @ 2019-05-17 00:32 静_渊 阅读(230) 评论(0) 推荐(0) 编辑