上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 41 下一页
摘要: 步骤其实很简单,一共三步,但是每一步都需要完成,步骤如下: 打开控制面板或腾讯软件管家等执行常规的卸载操作。 找到SDK的安装目录手动删除SDK。 进入“C:\Users\<你的用户名下>”目录下,手动删除".android"、".AndroidStudioX.X"、".gradle"目录(比如我登 阅读全文
posted @ 2019-07-23 20:01 Geeksongs 阅读(49576) 评论(1) 推荐(2) 编辑
摘要: 在阅读了大佬的博客之后,发现了博客园原来还可以具有一个写日记的功能,写完日记之后还可以随时进行查看,确实是一个非常不错的方法,这样不仅免去了日记本丢失的烦恼,同时满足了某些程序员不喜欢写字的癖好。因此我需要从现在开始在博客园上写一些有关自己的生活。 首先我们每个人都需要有独立之精神,自由之思想,这样 阅读全文
posted @ 2019-07-23 14:41 Geeksongs 阅读(406) 评论(0) 推荐(0) 编辑
摘要: 如何求协方差矩阵 一. 协方差定义 X、Y 是两个随机变量,X、Y 的协方差 cov(X, Y) 定义为: 其中: 、 二. 协方差矩阵定义 矩阵中的数据按行排列与按列排列求出的协方差矩阵是不同的,这里默认数据是按行排列。即每一行是一个observation(or sample),那么每一列就是一个 阅读全文
posted @ 2019-07-15 17:35 Geeksongs 阅读(41467) 评论(1) 推荐(3) 编辑
摘要: 首先我们上代码: from sklearn.feature_extraction.text import CountVectorizer corpus = [ 'UNC played Duke in basketball', 'Duke lost the basketball game', 'I a 阅读全文
posted @ 2019-07-15 15:24 Geeksongs 阅读(442) 评论(0) 推荐(0) 编辑
摘要: 一般来讲,我们图像的兴趣点都有边缘(edges)和角点(corners),这是两种比较常见的兴趣点类型,我们现在来撸撸代码,看一个提取美女兴趣点的例子: 最后我们显示得到的结果红色部分就是我们的兴趣点所在位置: 虽然结果没有深色图像的好,但也是可以很明显地看到兴趣点被我们提取出来了。 阅读全文
posted @ 2019-07-15 15:08 Geeksongs 阅读(801) 评论(0) 推荐(0) 编辑
摘要: 这个算法中文名为k均值聚类算法,首先我们在二维的特殊条件下讨论其实现的过程,方便大家理解。 第一步.随机生成质心 由于这是一个无监督学习的算法,因此我们首先在一个二维的坐标轴下随机给定一堆点,并随即给定两个质心,我们这个算法的目的就是将这一堆点根据它们自身的坐标特征分为两类,因此选取了两个质心,什么 阅读全文
posted @ 2019-07-14 22:54 Geeksongs 阅读(1908) 评论(0) 推荐(0) 编辑
摘要: 输出: 从这个结果当中我们可以看到我们的tensorflow之前是定义了一个一行两列的矩阵,之后是定义了一个两行一列的矩阵,因此第一个显示的shape为(1,2),第二个显示的shape为(2,1)就是这么来的。然后我们开始创建会话,tensorflow一般情况下创建了绘画才可以进行正常的计算。 创 阅读全文
posted @ 2019-07-09 13:04 Geeksongs 阅读(1778) 评论(0) 推荐(0) 编辑
摘要: 我们在线性回归模型当中,时常遇到将w与b吸入w^的向量形式写为:w^=(x,b)进而写成y=w^(t)x^的形式,这仅仅是为了某些人看公式的方便,而不是处于实际的作用。具体将这两个参数吸入为向量的过程,我们可以看看下面的方案: 其实 ˆ w和 ˆ x在数学当中分别称为增广权重向量和增广特征向量,计算 阅读全文
posted @ 2019-07-09 11:01 Geeksongs 阅读(901) 评论(0) 推荐(0) 编辑
摘要: 问题 说明: y、w为列向量,X为矩阵 式子演化 看到这个例子不要急着去查表求导,先看看它的形式,是u(w)∗v(w)的形式,这种形式一般求导较为复杂,因此为了简化运算,我们先把式子展开成下面的样子(注意:(Xw)T=wTXT): 然后就可以写成四个部分求导的形式如下(累加后求导=求导后累加): 求 阅读全文
posted @ 2019-07-07 21:50 Geeksongs 阅读(1865) 评论(0) 推荐(0) 编辑
摘要: 当我们在求解梯度下降算法的时候,经常会用到正规方程来求解w的值,这个时候就用到正规方程来求解是最快的方法,但是正规方程又是怎么来的呢?我们来看看:首先我们设我们的损失函数为 MSE train,那么这个时候我们只需要对其求解偏导就好了,于是我们有∇ w MSE train = 0 。具体推导过程如下 阅读全文
posted @ 2019-07-07 20:18 Geeksongs 阅读(2960) 评论(0) 推荐(0) 编辑
上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 41 下一页

Coded by Geeksongs on Linux

All rights reserved, no one is allowed to pirate or use the document for other purposes.