01 2019 档案

摘要:ki一、在这次课程中,我们将改造支持向量机算法,来构造比较复杂的非线性分类器,主要的技巧是称之为核(kernel)的东西,接下来我们看看核函数是什么以及如何使用它。 1.如果有一个这样的训练集,然后希望拟合一个非线性判别边界来区分正负样本示例,可能是下面这样的一个边界:一种方法是构造一个复杂多项式特 阅读全文
posted @ 2019-01-31 12:49 stone1234567890 阅读(446) 评论(0) 推荐(0)
摘要:1.Broadcasting example (1)下面矩阵描述了来自四种不同的100克碳水化合物,蛋白质和脂肪的卡路里数量 比如说100g苹果所含的热量有56克来自碳水化合物,相比之下来自蛋白质和脂肪的卡路里数就很少了。相反,100g的牛肉,有104卡路里来自蛋白质,135克来自脂肪,没有卡路里来 阅读全文
posted @ 2019-01-30 20:49 stone1234567890 阅读(409) 评论(0) 推荐(0)
摘要:1.向量内积: (1)假设有u和v这两个二维向量:,接下来看一下u的转置乘以v的结果,u的转置乘以v也叫做向量u和向量v的内积,u是一个二维向量,可以将其在图上画出来,如下图所示向量u: 在横轴上它的值就是某个u_1,在纵轴上它的高度就是某个值u_2,即U的第二个分量,那么现在就容易得出向量u的范数 阅读全文
posted @ 2019-01-30 14:01 stone1234567890 阅读(485) 评论(0) 推荐(0)
摘要:1.下面是支持向量机(SVM)的代价函数: 上图左边是cost1(z)函数,用于正样本,右边画出了关于z的代价函数cost0(z),函数的横轴是z,现在我们想一下怎么样才能使得这些代价函数变得更小呢?当有一个正样本的时候,y=1,那么仅当z大于等于1的时候,cost1(z)=0,换句话说,如果有一个 阅读全文
posted @ 2019-01-30 13:00 stone1234567890 阅读(376) 评论(0) 推荐(0)
摘要:一、图像识别与定位 0.Classification:C个类别 Input:Image Output:类别标签 Evaluation metric:准确率 1.Localization: Input:Image Output:物体边界框(xy,w,h) Evaluation mertric:交并准则 阅读全文
posted @ 2019-01-29 19:24 stone1234567890 阅读(221) 评论(0) 推荐(0)
摘要:一.用户行为数据简介 1.用户行为在个性化推荐系统中分为两种: (1)显式反馈行为:包括用户明确表示对物品喜好的行为。 (2)隐式反馈行为:不能明确反应用户喜好的行为。 (3)显式反馈行为和隐式反馈行为数据比较 (4)反馈方向: 正反馈:用户喜欢该物品;负反馈:用户不喜欢该物品 (5)用户数据分为显 阅读全文
posted @ 2019-01-29 17:04 stone1234567890 阅读(275) 评论(0) 推荐(0)
摘要:1.为了描述SVM,需要从logistic回归开始进行学习,通过改变一些小的动作来进行支持向量机操作。在logistic回归中我们熟悉了这个假设函数以及右边的sigmoid函数,下式中z表示θ的转置乘以x, (1)如果我们有一个样本,其中y=1,这样的一个样本来自训练集或者测试集或者交叉验证集,我们 阅读全文
posted @ 2019-01-29 14:36 stone1234567890 阅读(691) 评论(0) 推荐(0)
摘要:一、SVM模型 1.函数间隔与几何间隔,哪一条线是最好的? (1)公式化问题。 分类模型:当里面的值小于0的时候就是-1,当里面的值是大于等于0的时候就是1 函数间隔:前面乘以y(i),是为了保持数值为正值,数据点到直线的距离。把点代进去就是其函数间隔,函数间隔最好的是几何间隔最大的那个。最好的分类 阅读全文
posted @ 2019-01-29 11:10 stone1234567890 阅读(218) 评论(0) 推荐(0)
摘要:一、神经网络与卷积神经网络 0.DNN(MLP多层感知器)能用到计算机视觉上吗?为什么需要CNN DNN可以用在计算机视觉上, 1.卷积神经网络和人工神经网络的差异在哪里? 为什么需要卷积神经网络。下面是一个32x32x3的图片,隐层一般为1024或者4096的维度。输入维度是4k左右,隐层在102 阅读全文
posted @ 2019-01-26 21:08 stone1234567890 阅读(1902) 评论(0) 推荐(0)
摘要:一、什么是推荐系统 1.个性化推荐系统:从庞大的电影库中找几部符合你兴趣的电影供你选择。 2.推荐系统是帮助用户快速发现有用信息的工具。和搜索引擎不同的是,推荐系统不需要用户提供明确的需求,而是通过分析用户的历史行为给用户的兴趣建模,从而主动给用户推荐能够满足他们兴趣和需求的信息。搜索引擎和推荐系统 阅读全文
posted @ 2019-01-26 17:16 stone1234567890 阅读(263) 评论(0) 推荐(0)
摘要:一、从LR到决策树 0.思考一些一个分类问题:是否去相亲,LR解决的问题可能是这样的 在下面各个特征下给定w1,w2,w3,w4等参数值,将wx+b送到sigmoid函数中去,拿到一个概率p,我们在使用这个函数的时候会有一个损失函数loss function,对于这个代价函数通过GD梯度下降完成优化 阅读全文
posted @ 2019-01-26 12:40 stone1234567890 阅读(428) 评论(0) 推荐(0)
摘要:一、机器学习以及scikit-learn 1. 机器学习基本步骤: (1)定义一系列函数 => (2)定义函数的优劣 => (3)选择最优函数 2.什么是scikit-learn? (1)面向python的免费机器学习库 (2)包含分类、回归、聚类算法,比如:SVM、随机森林、k-means等 (3 阅读全文
posted @ 2019-01-24 17:00 stone1234567890 阅读(314) 评论(0) 推荐(0)
摘要:一、分类问题(监督学习,选择题) 1.根据数据样本上抽出的特征,判别其属于有限个类别中的哪一个 2.垃圾邮件识别(结果类别:1、垃圾邮件;2、正常邮件) 3.文本情感褒贬分析(结果类别:1、褒;2、贬) 4.图像内容识别(选择题:结果类别:1、喵星人;2、汪星人;3、人类;4、草拟马;5、都不是) 阅读全文
posted @ 2019-01-24 12:56 stone1234567890 阅读(2862) 评论(0) 推荐(0)
摘要:一、背景介绍 1.深度学习应用 二、神经网络非线性能力及原理 0.线性分类器得分函数 (1)假设函数:x到y的映射f。 这个f可以是多种表现形式,比如逻辑回归,决策树,随机森林以及xgboost是另外的一种表达形式,这里的神经网络是另外的表达。 (2)我们要的结果是要结果和标准答案更加接近,损失函数 阅读全文
posted @ 2019-01-24 09:55 stone1234567890 阅读(344) 评论(0) 推荐(0)
摘要:1.python中的广播: (1)广播是一种手段,可以让python代码执行得更快,我们来看看python实际如何执行。 下面矩阵列出了100克苹果、牛肉、鸡蛋和蛋白质中含有的碳水化合物、蛋白质和脂肪的数量 比如说我们的目标是四种食物中卡路里有多少百分比。比如100克苹果中有56+1.2+1.8卡路 阅读全文
posted @ 2019-01-23 20:25 stone1234567890 阅读(260) 评论(0) 推荐(0)
摘要:1.之前学习了如何通过向量化同时计算整个训练集预测值a。本次课程将会学习如何同时向量化计算m个训练集的梯度,之前的计算得到dz的计算形式:,我们可以将dz写成一个1*m的矩阵,,之前定义过A,定义了Y为:这样一个行向量。这样计算dz=A-Y, 2.我们已经去掉了一个for循环,我们将dw初始化为0向 阅读全文
posted @ 2019-01-23 18:09 stone1234567890 阅读(174) 评论(0) 推荐(0)
摘要:1.不使用任何for循环用梯度下降实现整个训练集的一步迭代。 (0)我们已经讨论过向量化如何显著加速代码,在这次视频中我们会设计向量化是如何实现logistic回归,这样酒桶同时处理m个训练集,来实现梯度下降算法的一步迭代,不需要使用任何显式的for循环 (1)logistic回归正向传播的步骤:如 阅读全文
posted @ 2019-01-23 17:28 stone1234567890 阅读(186) 评论(0) 推荐(0)
摘要:1.什么是向量化? 在logistic 回归中,你需要计算z=w^Tx+b,w是列向量 ,x也是列向量,w和x都是R内的nx维向量 在python中的一个非向量实现: for i in range(n-x): z+=w[i]*x[i] z+=b 这种形式的计算很慢,对比下向量化的实现会直接计算W^T 阅读全文
posted @ 2019-01-22 20:53 stone1234567890 阅读(454) 评论(0) 推荐(0)
摘要:1.这是梯度下降的规则:,我们要学习的是:(1)Debugging:确保梯度下降正常的工作。(2)选择合适的学习率 2.我们通常所做的事情是确保梯度下降正常工作,梯度下降所做的事情是为你找到一个θ值,并希望能够最小化代价函数J(θ), 阅读全文
posted @ 2019-01-22 19:01 stone1234567890 阅读(168) 评论(0) 推荐(0)
摘要:1.回顾logistic回归,下式中a是逻辑回归的输出,y是样本的真值标签值 、 (1)现在写出该样本的偏导数流程图。假设这个样本只有两个特征x1和x2, 为了计算z,我们需要输入参数w1、w2和b还有样本的特征值x1和x2,用这个来计算偏导数的计算公式,然后我们可以计算y^就是a,即,最后计算L( 阅读全文
posted @ 2019-01-22 18:19 stone1234567890 阅读(432) 评论(0) 推荐(0)
摘要:1.对某些线性回归问题,正规方程给出了更好的解决方法,来求得参数θ,截止到目前我们一直使用线性回归算法是梯度下降法,为了最小化代价函数J(θ),我们使用梯度下降多次迭代,来收敛得到全局的最小值。与此相反的正规方程提供了一种求θ的解析方法,我们不需要再去运用迭代的方法,而是可以直接一次性的求解θ最优值 阅读全文
posted @ 2019-01-22 16:34 stone1234567890 阅读(299) 评论(0) 推荐(0)
摘要:1.房价案例: 房价预测:我们有两个特征,临街宽度(frontage)和纵深(depth),我们可以建立这样的线性回归模型,临街宽度是第一个特征x1,纵深是第二个特征x2 。这里我们可以自己选择特征值,将frontage 乘以 depth得到我们拥有土地的面积,于是我们就用这一个特征来计算,有时通过 阅读全文
posted @ 2019-01-22 15:49 stone1234567890 阅读(1340) 评论(0) 推荐(0)
摘要:梯度下降运算中的使用技巧特征缩放: 确保不同的特征值都处在一个相近的范围之内,这样的梯度下降法能够更快的收敛 如:加入你有一个具有两个特征额问题,x1是房屋面积大小,取值在0-2000之间; x2是卧室的数量,可能的取值在1到5之间,如果要画出代价函数J(θ)的等值线,代价函数是关于参数θ1和θ2的 阅读全文
posted @ 2019-01-22 15:06 stone1234567890 阅读(233) 评论(0) 推荐(0)
摘要:1.左边是梯度下降算法,右边是线性回归模型 我们要做的是将梯度下降算法应用到最小化平方差代价函数 在计算梯度下降时,不断的重复计算直至最后收敛。 上式(1)中是对θ0进行求偏导,(2)是对θ1求偏导。在凸函数中, 阅读全文
posted @ 2019-01-22 14:23 stone1234567890 阅读(443) 评论(0) 推荐(0)
摘要:1.使用梯度下降来处理多元线性回归,下式使我们多元线性回归的假设式,这个模型的参数是从θ0到θn,这里我们不把它看做n个独立的参数,而是把这些参数看做一个n+1维的θ向量,我们的代价函数是J(θ0,θ1,θ2......θn) 但是这里我们不把J看做n+1个数的函数,我们使用更通用的方式将J谢春哥θ 阅读全文
posted @ 2019-01-22 13:43 stone1234567890 阅读(298) 评论(0) 推荐(0)
摘要:1.前面的线性回归只有一个单一特征量,即房屋的面积大小x,我们希望用这个特征量来预测y值,即房屋的价格,就是我们的假设函数。但是当我们有多个变量来来作为预测房屋的价格的一个特征或者一个变量,我们不仅知道了房屋的大小,还知道卧室的个数,楼层的数量以及房子的年龄,这就给了我们更多用来预测价格的信息。 ( 阅读全文
posted @ 2019-01-22 13:04 stone1234567890 阅读(173) 评论(0) 推荐(0)
摘要:1.矩阵:由数字组成的矩形阵列,并写在方括号内 2.向量:只有一列的矩阵,从0开始做下标 3.矩阵乘法没有交换律:AXB!=BXA(矩阵的乘法没有交换律) 矩阵乘法有结合律:AxBxC=(AxB)xC=Ax(BxC) 4.单位矩阵。nxn单位矩阵,不同的单位矩阵有不同的维度n 5.对于任意矩阵A,乘 阅读全文
posted @ 2019-01-22 11:56 stone1234567890 阅读(480) 评论(0) 推荐(0)
摘要:1.梯度下降算法 (1)如上式的梯度下降算法,α是学习速率,它控制着我们以多大的幅度来更新这个参数θj,这个地方第二部分是偏导数项, (2)例1。我们最小化函数只有一个参数的情形,加入我们的成本函数只有一个参数,如下图关于θ1的成本函数是一个凸函数,我们从函数的任一点上开始做梯度下降,梯度下降就是不 阅读全文
posted @ 2019-01-22 09:18 stone1234567890 阅读(210) 评论(0) 推荐(0)
摘要:1.用梯度下降算法来训练或者学习训练集上的参数w和b,如下所示,第一行是logistic回归算法,第二行是成本函数J,它被定义为1/m的损失函数之和,损失函数可以衡量你的算法的效果,每一个训练样例都输出y,把它和基本真值标签y进行比较 右边展示了完整的公式,成本函数衡量了参数w和b在训练集上的效果。 阅读全文
posted @ 2019-01-21 22:10 stone1234567890 阅读(379) 评论(0) 推荐(0)
摘要:1.Logistic Regression是一个二元分类问题 (1)已知输入的特征向量x可能是一张图,你希望把它识别出来,这是不是猫图,你需要一个算法,可以给出预测值,更正式的y是一个概率,当输入特征x满足条件的时候y就是1。换句话说,如果x是图片,那就需要拿到一张猫图的概率。 (2)Sigmoid 阅读全文
posted @ 2019-01-21 21:21 stone1234567890 阅读(5693) 评论(0) 推荐(0)
摘要:1.基本神经网络编程:二分分类算法 (1)从一个例子开始,有一个二分分类问题的例子,假如有这样的一张图片作为输入,现在要输出识别此图的标签,如果是猫则输出1,如果不是猫就输出0,我们用y来表示结果标签。 接下来看看一张图片在计算机中是如何表示的,计算机中要保存一张图片需要三个独立的矩阵,分别保存图片 阅读全文
posted @ 2019-01-21 20:41 stone1234567890 阅读(200) 评论(0) 推荐(0)
摘要:1.到目前为止的神经网络都是基于监督学习的过程。在监督学习中,输入x,习得一个函数,映射到输出y, 2.CNN(Convolutional nerual networks)卷积神经网络主要用于图像领域;RNN(Recurrent neural networks)循环神经网络经常用于处理序列数据,如音 阅读全文
posted @ 2019-01-21 19:22 stone1234567890 阅读(396) 评论(0) 推荐(0)
摘要:1.我们之前已经定义了代价函数J,可以将代价函数J最小化的方法,梯度下降是最常用的算法,它不仅仅用在线性回归上,还被应用在机器学习的众多领域中,在后续的课程中,我们将使用梯度下降算法最小化其他函数,而不仅仅是最小化线性回归的代价函数J。本节课中,主要讲用梯度下降的算法来最小化任意的函数J,下图是我们 阅读全文
posted @ 2019-01-21 17:34 stone1234567890 阅读(768) 评论(0) 推荐(0)
摘要:1.下面是我们惯例的公式,有假设函数、参数和代价函数以及我们优化的目标 和上节课不同的是,对代价函数图形化的时候,这次课我们要保留全部参数theta0和theta1,这里是关于房价的训练集,之前我们只有一个参数theta1,画出来的形状是一个碗状函数,当我们有两个参数的时候,J(theta0,the 阅读全文
posted @ 2019-01-21 16:47 stone1234567890 阅读(285) 评论(0) 推荐(0)
摘要:1.我们希望找到一条与数据拟合的直线,所以我们构造了下面这个假设函数,包括theta0和theta1,随着参数的选择不同,我们会得到不同的直线,和数据相符额直线如下图绿色直线,代价函数是J(theta0,theta1),我们的目标是最小化代价函数 2.为了更好的使得代价函数J可视化,我们使用一个简化 阅读全文
posted @ 2019-01-21 16:03 stone1234567890 阅读(595) 评论(0) 推荐(0)
摘要:一、简介 1.在线性回归中,我们有一个这样的训练集,M代表训练样本的数量,假设函数即用来进行预测的函数是这样的线性函数的形式,我们接下来看看怎么选择这两个参数: 2.如下图中,怎么选择两个参数来更好的拟合数据呢? 我们要尽量选择参数值,使得在训练集中,给出训练集中的x值,合理准确的预测y值。在线性回 阅读全文
posted @ 2019-01-21 14:59 stone1234567890 阅读(286) 评论(0) 推荐(0)
摘要:一、简介:案例仍然是房价预测的例子,监督学习:每个例子都有一个“正确的”答案 1.m表示训练样本的个数 2.(x,y)表示一个训练样本 3.x(i),y(i),这里i这个上标,不是幂指数,而是训练集的一个索引,指的是表格中的第i行 4.监督学习算法的工作流程:(1)首先向算法中提供训练集;(2)学习 阅读全文
posted @ 2019-01-21 14:31 stone1234567890 阅读(130) 评论(0) 推荐(0)
摘要:一、简介 1.案例:下图是波特兰市城市住房价格数据,我们将根据不同房子的尺寸,对应不同的售价组成的数据集来画图 (1)由上面的数据可以进行模型的拟合,这组数据似乎适合直线,这也是一个回归问题,回归是指预测一个具体的数值输出,另一种常见的监督学习问题,是分类问题,用它来预测离散值的输出,比如观察肿瘤, 阅读全文
posted @ 2019-01-20 22:27 stone1234567890 阅读(144) 评论(0) 推荐(0)
摘要:一、简介 1.在监督学习中,数据集中的每个样本都被标明为阳性样本或者阴性样本,即良性肿瘤或者恶心肿瘤,对于监督学习中的每个样本,我们已经被清楚的告知了什么是正确的答案,即他们是恶心肿瘤还是良性肿瘤,下图左图是监督学习。在无监督学习中,我们用的数据和之前不同,数据样本没有任何标签,都具有相同的标签或者 阅读全文
posted @ 2019-01-19 10:30 stone1234567890 阅读(125) 评论(0) 推荐(0)
摘要:一、简介 0.example:假设你要对房价进行预测,横轴是不同房屋的平方英尺数,纵轴是不同房子的价格,单位是千美元。那么现在有了这些数据,假设你现在有一栋150平方英尺的房子,你想把这个房子卖掉,想知道能卖多少钱。那么什么样的学习算法能帮到你呢? 学习算法能做的一件事就是根据数据画一条直线来拟合数 阅读全文
posted @ 2019-01-19 09:29 stone1234567890 阅读(179) 评论(0) 推荐(0)
摘要:写在开头的话,本博客内容全部来自吴恩达深度学习教学课程,插图均来自吴恩达课件,在此说明来处,不喜勿喷! 一、什么是神经网络 1.我们从一个房屋加个预测的例子开始,假设有一个6间房间的数据集,已知房屋的面积单位是平方米或者平方英尺,已知房屋加个,现在想要找到一个函数,根据房屋面积来预测房屋价格的函数。 阅读全文
posted @ 2019-01-18 22:02 stone1234567890 阅读(246) 评论(0) 推荐(0)
摘要:一、神经网络起源:线性回归 1.线性回归: (1)概念:线性关系来藐视输入到输出的映射关系 (2)应用场景:网络分析,银行风向分析 (3)线性回归问题: 优化方法:梯度下降法SGD 梯度下降总结: 2.线性回归多个y值的输出 (1)多目标学习的过程,通过合并多个任务loss,一般能够产生比单个模型更 阅读全文
posted @ 2019-01-18 19:00 stone1234567890 阅读(1480) 评论(0) 推荐(0)
摘要:一、神经网络与卷积神经网络 0.DNN能用到计算机视觉上吗?为什么需要CNN? 卷积神经网络和人工神经网络的差异在哪? 1.层级结构 (1)保持了层级的网络结构 (2)不同的层次有不同形式的(运算)与功能 (3)主要是以下的层次: 数据输入层/input layer 卷积计算层 /CONV laye 阅读全文
posted @ 2019-01-15 21:07 stone1234567890 阅读(403) 评论(0) 推荐(0)
摘要:1. (1)熵的概念的引入,首先在热力学中,用来表述热力学第二定律。由玻尔兹曼研究得到,热力学熵与微 观状态数目的对数之间存在联系,公式如下: 信息熵的定义与热力学熵的定义虽然不是一个东西,但是有一定的联系,熵在信息论中表示随机变量不确定度的度量。一个离散随机变量X与熵H(X)的定义为: (2)为了 阅读全文
posted @ 2019-01-14 14:29 stone1234567890 阅读(1774) 评论(0) 推荐(0)
摘要:一、基本形式: 1.在机器学习中,X一般表示m行1列的列向量: 对于一个m行n列的X矩阵而言,每一行是一个样本,每一列是其特征值。给定d个属性描述的示例x=(x1;x2;x3;.........xd),其中xi是在第i个属性上的取值。线性模型试图学得一个通过属性的线性组合来进行函数的预测 即: 而对 阅读全文
posted @ 2019-01-13 09:30 stone1234567890 阅读(237) 评论(0) 推荐(0)
摘要:1.S 型神经元和感知器类似,但是被修改为权重和偏置的微小改动只引起输出的微小变化 2.S型神经元结构: S型函数: 带有x1,x2,........,权重w1,w2.....,和偏置b的S型神经元的输出是: sigmoid函数图像 阅读全文
posted @ 2019-01-11 21:54 stone1234567890 阅读(1130) 评论(0) 推荐(0)
摘要:在神经网络中,我们主要使用的是一种称为S型神经元的神经元模型。感知器就是我们所谓的“人工神经元”。那么感知器怎么工作的呢,接下来我们来谈谈。 1.感知器工作机制: 上图中有x1,x2和x3输入,一般情况下我们可以引入权重w1,w2和w3来表示输入对输出的重要性,这时可以计算w1 * x1 +w2 * 阅读全文
posted @ 2019-01-11 20:07 stone1234567890 阅读(1194) 评论(0) 推荐(0)
摘要:一、pandas数据操作: 1.处理缺失数据 (1)判断是否存在缺失值 ser_obj.isnull(),df_obj.isnull() (2)dropna:丢弃缺失数据 (3)fillna:填充缺失值 2.常用的统计计算 (1)sum,mean,max,min....... (2)axis=0按照 阅读全文
posted @ 2019-01-05 15:48 stone1234567890 阅读(281) 评论(0) 推荐(0)
摘要:一、栈和队列 1.定义: 2.操作:入栈/队列、出栈/队列、判断满/空 3:空间复杂度:O(n) 4:单次操作的时间复杂度:O(1) 5:区别: (1)先进先出(FIFO) (2)先进后出FILO 6:数组和链表皆可(线性表) 指针(辅助变量) 栈顶/底指针 队头/尾指针 关键:出入元素同时移动指针 阅读全文
posted @ 2019-01-04 21:44 stone1234567890 阅读(217) 评论(0) 推荐(0)
摘要:第一题:题目内容 Given an array of integers, return indices of the two numbers such that they add up to a specific target. You may assume that each input woul 阅读全文
posted @ 2019-01-03 21:54 stone1234567890 阅读(1241) 评论(0) 推荐(0)
摘要:冒泡排序的时间复杂度是O(N^2) 冒泡排序的思想: 每次比较两个相邻的元素, 如果他们的顺序错误就把他们交换位置 比如有五个数: 12, 35, 99, 18, 76, 从大到小排序, 对相邻的两位进行比较 第一趟: 第一次比较: 35, 12, 99, 18, 76 第二次比较: 35, 99, 阅读全文
posted @ 2019-01-03 19:54 stone1234567890 阅读(215) 评论(0) 推荐(0)
摘要:1 numpy.random.rand() (1)numpy.random.rand(d0,d1,…,dn) rand函数根据给定维度生成[0,1)之间的数据,包含0,不包含1 dn表格每个维度 返回值为指定维度的array (2) [[0.16965512 0.97445517 0.5199235 阅读全文
posted @ 2019-01-02 16:12 stone1234567890 阅读(2203) 评论(0) 推荐(0)
摘要:low、high、size三个参数。默认high是None,如果只有low,那范围就是[0,low)。如果有high,范围就是[low,high)。 阅读全文
posted @ 2019-01-02 15:46 stone1234567890 阅读(1149) 评论(0) 推荐(0)
摘要:一、Matplotlib 1.用于创建出版质量图表的绘图工具库 2.目的的为Python构建一个Matlab式的绘图接口 3.import matplotlib.pyplot as plt:pyplot模块包含了常用的matplotlib API函数 4.figure (1)Matplotlib的图 阅读全文
posted @ 2019-01-02 10:42 stone1234567890 阅读(935) 评论(0) 推荐(0)
摘要:一、Pandas的数据操作 0.DataFrame的数据结构 1.Series索引操作 (0)Series (1)Series索引,ser_obj['label'],ser_obj[pos],通过字符串的标签或者索引位置进行索引 (2)切片索引 (3)不连续的索引,ser_obj[['label1' 阅读全文
posted @ 2019-01-01 17:11 stone1234567890 阅读(998) 评论(0) 推荐(0)
摘要:摘要: 1.时间总是过得很快,不经意间竟然来到了2019年,很感慨也很期待。 2.2018年总结 3.2019年展望。 2018年总结: (1)今年体重减了很多,我很满意。年初刚报健身房的时候体侧192斤,自己吓一跳,从正月十五进健身房到后面5月份体重减到144斤,自己比较满意,也积累了很多健身方面 阅读全文
posted @ 2019-01-01 11:21 stone1234567890 阅读(836) 评论(0) 推荐(0)