上一页 1 2 3 4 5 6 ··· 12 下一页
摘要: 在本地使用jupyter notebook很简单,但是如果我们想在服务器上,例如Ubuntu上使用notebook就会出现无法打开网页的情况,本文介绍一下如何开启jupyter notebook的远程访问。 1. 生成配置文件 jupyter notebook --generate-config 2 阅读全文
posted @ 2021-06-17 16:01 MrDoghead 阅读(359) 评论(0) 推荐(0) 编辑
摘要: 图床除了点问题,请移步:https://mrdoghead.github.io/ 记得高中时玩了一阵子魔方,三阶四阶到五阶,但高三后就没碰了以至于公式都忘记了,正巧最近收货一个三阶魔方,分享一下新手级还原教程(个人初步整理)。 在开始之前需要约定一些东西,关于角、棱、面等基础立体几何名词这里不在赘述 阅读全文
posted @ 2021-06-15 00:10 MrDoghead 阅读(705) 评论(1) 推荐(0) 编辑
摘要: 还记得当初学python,下载个ide直接就开始跟着教程敲,后面慢慢学习了python环境相关的知识,package的管理等等,发现anaconda真好用,ide都是浮云vim直接怼。最近入手了新的电脑,要重新安装各种东西,配置各种环境,十分头疼,尤其是本地有多个python版本以及brew、con 阅读全文
posted @ 2021-05-14 10:02 MrDoghead 阅读(4316) 评论(0) 推荐(0) 编辑
摘要: 问题:MacOS中使用vim编辑文本,进入插入模式,要删除编辑之前的保存过的几个字符,按下backspace无法删除之前保存的内容。 原因:VIM使用了 compatible 模式,或者把 backspace 变量设置为空了…其实compatible模式是VIM为了兼容vi而出现的配置,它的作用是使 阅读全文
posted @ 2021-05-11 15:28 MrDoghead 阅读(522) 评论(0) 推荐(0) 编辑
摘要: 快速梳理 LSTM(Long Short-Term Memory)长短期记忆人工神经网络是对RNN的一种改进,可以有效解决RNN存在的长期依赖问题。下图展示了LSTM的网络结构,我们可以看到其中有许多奇怪的部分,被称之为“门”。下面就具体介绍一下遗忘门,输入门和输出门以及重要的细胞状态(Cell)。 阅读全文
posted @ 2021-04-19 23:43 MrDoghead 阅读(732) 评论(0) 推荐(0) 编辑
摘要: 今天整理一下EM算法,当年在学校学这个的时候真是一脸懵逼啊,还好考的不难:) EM(Expectation-Maximization)算法,从名字中就可以知道他是有两部分构成的求期望和求极大似然,论文原文放在这里需要的自取。算法通过迭代的方式进行E步和M步,从而更新模型参数,直到收敛。 预备知识 已 阅读全文
posted @ 2021-04-19 18:24 MrDoghead 阅读(93) 评论(0) 推荐(0) 编辑
摘要: 曼哈顿距离 描述2点之间的绝对值距离,\(L = |x_1 - x_2| + |y_1 - y_2|\) 欧氏距离 描述2点之间的直线距离,\(L = \sqrt{(x_1-x_2)^2 + (y_1-y_2)^2}\) Pearson相关系数 Pearson 相关系数是用协方差除以两个变量的标准差 阅读全文
posted @ 2021-04-16 00:41 MrDoghead 阅读(130) 评论(0) 推荐(0) 编辑
摘要: :》很早就想整理这个话题的,但是一直拖到现在,因为最近刚好有和别人聊到LDA相关的话题就下定决心整理一下。(当然主题词模型不只LDA这一种) ##主题以及主题词模型 在NLP领域,主题topic一般是通过关键词的形式描述的,一类主题就可以有一个关键词所组成的set来表示,例如体育相关的主题所对应的主 阅读全文
posted @ 2021-04-15 23:43 MrDoghead 阅读(250) 评论(0) 推荐(0) 编辑
摘要: 什么是决策树? 这次不搬运百科定义了,用通俗的话概括一下,就是把数据按照不同属性(由宽泛到精细)进行归类而构造出来的一颗“树”。西瓜书给出了一个基本算法流程,参考下图。 现在你应该对决策树有一个大概的印象了,这里最重要的部分是什么呢?其实是算法第8行,如何寻找最优的划分属性。现在举一个例子,你想约妹 阅读全文
posted @ 2021-03-24 02:14 MrDoghead 阅读(114) 评论(0) 推荐(0) 编辑
摘要: Bias & Variance 在介绍欠拟合与过拟合之前需要先了解一下偏差与方差的知识。首先关于Generalization error (aka empirical risk)的观点我觉得作者JR总结的很好,引用如下 在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是 阅读全文
posted @ 2021-03-21 02:51 MrDoghead 阅读(58) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 12 下一页