微信扫一扫打赏支持

10 2020 档案

摘要:泊松分布通俗理解 一、总结 一句话总结: 泊松分布可以通过无限细分的二项分布推出来,求极限的话就是得到的结果就是泊松分布 P(X=k)=μkk!eμ
二、泊松分布(转) 转自:https://www.ma 阅读全文
posted @ 2020-10-31 19:40 范仁义 阅读(1379) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.3、泊松分布 一、总结 一句话总结: P(X=k)=λkk!eλ,k=0,1,
λ>0,X~P(λ) 泊松分布适用于:电台收呼 阅读全文
posted @ 2020-10-31 18:22 范仁义 阅读(1298) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.3、0-1分布/几何分布/二项分布 一、总结 一句话总结: 0-1分布就是只能取0或1的分布 几何分布是第k次首次发生,前k-1次未发生 二项分布的每一次尝试都是独立的,前一次投掷的结果不能决定或影响当前投掷的结果,只有两个可能结果并且重复n次的实验叫做二项式。 阅读全文
posted @ 2020-10-31 16:00 范仁义 阅读(1218) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.2、离散型的分布函数 一、总结 一句话总结: 【阶梯形曲线】:离散型随机变量X的分布函数F(x)的图形是阶梯形曲线.F(x)在X的一切有(正)概率的点 ,皆有一个跳跃,其跳跃度正好为X取值Xk的概率pk 1、分布函数做题常用性质? lim(x->+∞)F(x)= 阅读全文
posted @ 2020-10-31 13:11 范仁义 阅读(1342) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.2、分布函数 一、总结 一句话总结: 设X是一个随机变量,x是任意实数,函数F(x)=P(X<=x)称为X的分布函数。有时也记为X~F(x)。 分布函数就是变量小于等于某个特定值a的概率(或者频率,如果是用数据统计出来的话),也即F(a)=P(X<=a) 1、分 阅读全文
posted @ 2020-10-31 08:03 范仁义 阅读(1795) 评论(0) 推荐(1) 编辑
摘要:概率论分布函数(总结) 一、总结 一句话总结: 设X是一个随机变量,x是任意实数,函数F(x)=P(X<=x)称为X的分布函数。有时也记为X~F(x)。 1、直观理解分布函数? 分布函数就是变量小于等于某个特定值a的概率(或者频率,如果是用数据统计出来的话),也即F(a)=P(X<=a) 假设现在有 阅读全文
posted @ 2020-10-31 07:59 范仁义 阅读(4867) 评论(0) 推荐(0) 编辑
摘要:概率密度函数 通俗理解 一、总结 一句话总结: 概率密度函数就是x轴表示样本情况,y轴表示频率/组距,这样x1,x2,y1,y2包的面积就是P{x1<=x<=x2} 1、概率密度函数 特点? f(x)总是≥0 f(x)从负无穷到正无穷的积分为什么一定要是1,因为我们要保 证总的概率为1。 二、概率密 阅读全文
posted @ 2020-10-31 06:33 范仁义 阅读(6129) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.2、连续型随机变量及其概率密度函数 一、总结 一句话总结: 【不可以逐个列举】:连续型随机变量是指如果随机变量X的所有可能取值不可以逐个列举出来,而是取数轴上某一区间内的任一点的随机变量。 【例如,一批电子元件的寿命、实际中常遇到的测量误差等都是连续型随机变量】 阅读全文
posted @ 2020-10-31 06:05 范仁义 阅读(1177) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.2.1、离散型随机变量及其概率分布 一、总结 一句话总结: 【有限个或可数无穷个】:设X是一个随机变量,如果它全部可能的取值只有有限个或可数无穷个,则称X为一个离散型随机变量。 【设X1,X2,…是随机变量X的所有可能取值】:设X1,X2,…是随机变量X的所有可能取 阅读全文
posted @ 2020-10-31 03:33 范仁义 阅读(877) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 2.1、随机变量的概念 一、总结 一句话总结: {w|x(w)=a}的样本点集合,也是事件 也可以写做{x=a}表示事件,比如丢筛子表示点数为3,则{x=3}, 概率的话可以表示为P{x=a},也可以写作P(x=a) 1、随机变量的概念:例:公交车站,每5分钟一辆,候车 阅读全文
posted @ 2020-10-30 19:30 范仁义 阅读(522) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.5.2、伯努利模型 一、总结 一句话总结: 伯努利实验:结果只有两种,硬币正反,射击中与不中,产品的次品与合格 P_n(K)=C_n^k*P^k*(1-P)^(n-k)=C_n^k*P^k*q^(n-k) q=1-p:二项概率公式 1、n重伯努利实验? n次,独立, 阅读全文
posted @ 2020-10-30 14:04 范仁义 阅读(918) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.5.1、事件的独立性 一、总结 一句话总结: A的概率不受B发生与否的影响 P(A|B)=P(A) A,B独立 <==> P(AB)=P(A)*P(B) 1、A,B独立 定义? P(AB)=P(A)*P(B) <==> A,B独立 2、Ω与Φ和任何事件A独立? P( 阅读全文
posted @ 2020-10-30 13:08 范仁义 阅读(1294) 评论(0) 推荐(1) 编辑
摘要:贝叶斯公式-汽车实例 一、总结 一句话总结: 令B是城市里车为蓝色的事件,G为车子是绿色的事件,E为观察到车子为蓝色的事件。则由已知条件可以得出P(B)=0.15,P(G)=P(~B)=0.85,至于P(E)我们一会儿再说。 贝叶斯里面现象(新的证据)部分总是分两种情况出现的:一是车子的确是蓝色的, 阅读全文
posted @ 2020-10-30 10:25 范仁义 阅读(691) 评论(0) 推荐(0) 编辑
摘要:贝叶斯公式的理解 一、总结 一句话总结: 我们把上面例题中的 A 变成样本(sample) x , 把 B 变成参数(parameter) \theta , 我们便得到我们的贝叶斯公式: $$\pi(\theta_i|x) = \frac{f(x|\theta_i)\pi(\theta_i)}{\s 阅读全文
posted @ 2020-10-30 10:21 范仁义 阅读(1922) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.4.2、贝叶斯公式 一、总结 一句话总结: 贝叶斯公式就是知道结果推原因:推导致发烧的原因中哪个的概率最大 1、贝叶斯公式 和 全概率公式的本质区别? 导致发烧的原因可能是感冒、肺炎、白血病 全概率公式就是知道原因推结果:得这三种病以及这三种病发烧的概率,求发烧的概 阅读全文
posted @ 2020-10-30 09:20 范仁义 阅读(726) 评论(0) 推荐(1) 编辑
摘要:全概率公式和贝叶斯公式 一、总结 一句话总结: 全概率就是表示达到某个目的,有多种方式(或者造成某种结果,有多种原因),问达到目的的概率是多少(造成这种结果的概率是多少) 贝叶斯公式就是当已知结果,问导致这个结果的第i原因的可能性是多少?执果索因! 1、条件概率 意义及意义例子? 举个例子,比如让你 阅读全文
posted @ 2020-10-30 07:32 范仁义 阅读(2349) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.4.1、全概率公式 一、总结 一句话总结: A1A2...An是E的完备事件组,P(Ai)>0,P(B)=∑P(Ai)P(B|Ai) 1、全概率公式 例:10台机器,3台次品,已售两台,剩下一台是正品的概率? 全概率问题也就是具体题目的时候,把所有情况列举出来 设 阅读全文
posted @ 2020-10-30 07:16 范仁义 阅读(1107) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.3.2、乘法公式 一、总结 一句话总结: P(AB)=P(B)P(A|B) P(AB)=P(A)P(B|A) P(A1A2...An)=P(A1)*P(A2|A1)*P(A3|A1A2)*P(An|A1A2...An-1) P(ABC)=P(A)*P(B|A)*P( 阅读全文
posted @ 2020-10-30 03:00 范仁义 阅读(1749) 评论(0) 推荐(1) 编辑
摘要:概率论 乘法公式 一、总结 一句话总结: P(AB)=P(B)P(A|B) P(AB)=P(A)P(B|A) 1、联合概率P(AB)和条件概率P(A|B)的理解? 联合概率侧重二者同时发生,而条件概率侧重一个先发生另一个后发生。 P(AB)=AB/S,P(A|B)=AB/B=P(AB)/P(B) 可 阅读全文
posted @ 2020-10-30 02:44 范仁义 阅读(5476) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.3.1、条件概率 一、总结 一句话总结: 条件概率就是样本空间发生了变化,和原来的样本空间不一样了 P(A|B)不等于P(AB),而是P(AB)/P(B) 1、条件概率 定义? Ω样本空间,A,B两个事件,P(B)>0,在B已经发生的条件下,A发生的概率。这就是A对 阅读全文
posted @ 2020-10-30 01:44 范仁义 阅读(630) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.2.5、公理化 一、总结 一句话总结: 概率的公理化定义只是限制我们研究的(空间,事件,概率测度)这个三元组需要符合哪些性质,对于具体的概率是多少,定义中并没有给出。 1、概率可加性的前提条件是什么:P(A1+...+Am)=P(A1)+...+P(Am)? 事件两 阅读全文
posted @ 2020-10-29 22:29 范仁义 阅读(793) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.2.4、频率与概率 一、总结 一句话总结: n次试验,A发生了m次,m/n是频率,记做ω_n(A) 1、频率的特性? 非负:0<=ω_n(A)<=1 规范:ω_n(Ω)=1 ω_n(φ)=0 可加性:A1...Am互不相容,ω_n(A1+...+Am)=ω_n(A1 阅读全文
posted @ 2020-10-29 21:38 范仁义 阅读(467) 评论(0) 推荐(1) 编辑
摘要:频率和概率 一、总结 一句话总结: 1) 频率:在n次重复试验中,事bai件A发生du了m(A)次,则称:m(A)/n 为事件A发生的频率; 2) 概率:随zhi机事件A发生可能性大小dao的度量(非负实数,<=1),称为事件A发生的概率,记做P(A),P是英文Probability(概率)的字头。 阅读全文
posted @ 2020-10-29 21:29 范仁义 阅读(1854) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.2.3、几何概型 一、总结 一句话总结: 几何概率模型 就是那些 线段、平面、立体 相关的模型 1、几何概率模型 实例? 几何概率模型 就是那些 线段、平面、立体 相关的模型 一个3cm的线段,一个质子扔到1-2之间的概率是1/3 一张桌子,一个质子扔到左边部分的的 阅读全文
posted @ 2020-10-29 16:18 范仁义 阅读(438) 评论(0) 推荐(1) 编辑
摘要:宋浩《概率论与数理统计》笔记 1.2.2、古典模型 一、总结 一句话总结: 1、概率的表示? 【注意概率表示为P(A)】:概率是可能性的大小:表示为P(A),比如抛硬币,A表示正面,B表示背面,P(A)=1/2,P(B)=1/2 2、概率 的性质? P(Ω)=1 P(Φ)=0 0<=P(A)<=1 阅读全文
posted @ 2020-10-29 16:14 范仁义 阅读(614) 评论(0) 推荐(1) 编辑
摘要:几何概率模型是什么 一、总结 一句话总结: 【例如方格中投一个石子】:例如一个人到单位的时间可能是8:00~9:00之间的任意一个时刻、往一个方格中投一个石子,石子落在方格中任何一点上……这些试验出现的结果都是无限多个,属于几何概型。 【无限性和等可能性】:一个试验是否为几何概型在于这个试验是否具有 阅读全文
posted @ 2020-10-29 15:35 范仁义 阅读(388) 评论(0) 推荐(0) 编辑
摘要:宋浩《概率论与数理统计》笔记 1..1.1-1.1.3、概率论基本概念 一、总结 一句话总结: 1、随机试验 条件? 1、在相同条件下可重复 2、结果不止一个 3、无法预测 4、用字母E表示 2、事件、随机事件、基本事件、复合事件 分别是什么? 事件:每次随机试验的结果 随机事件:随机的事件,通常用 阅读全文
posted @ 2020-10-29 11:00 范仁义 阅读(3764) 评论(0) 推荐(3) 编辑
摘要:机器学习疑难 1、什么是多元线性回归 一、总结 一句话总结: 多元线性回归就是 用多个x(变量或属性)与结果y的关系式来描述一些散列点之间的共同特性。 也可以逐词来理解:多元就是有多个变量或属性,线性就是一条线,回归就是输入变量与输出变量均为连续变量的预测问题 二、什么是多元线性回归 博客对应课程的 阅读全文
posted @ 2020-10-28 15:20 范仁义 阅读(1708) 评论(0) 推荐(0) 编辑
摘要:最大似然估计线性回归实例 一、总结 一句话总结: 最大似然估计的意思就是最大可能性估计,其内容为:如果两件事A,B相互独立,那么A和B同时发生的概率满足公式:P(A , B) = P(A) * P(B) 根据最大似然估计P(y) = P(x1,x2 ... xn)= P(x1) * P(x2) .. 阅读全文
posted @ 2020-10-28 13:43 范仁义 阅读(2013) 评论(0) 推荐(0) 编辑
摘要:Hopfield神经网络 简介 一、总结 一句话总结: 【Hopfield和BP同一时期】:BP属于前馈式类型,但是和BP同一时期的另外一个神经网络也很重要,那就是Hopfield神经网络,他是反馈式类型。这个网络比BP出现的还早一点, 【Hopfield网络的权值不是通过训练出来的,而是按照一定规 阅读全文
posted @ 2020-10-28 13:29 范仁义 阅读(2767) 评论(0) 推荐(0) 编辑
摘要:最小二乘法 与 均方误差的区别(总结) 一、总结 一句话总结: 基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。——周志华《机器学习》 最小二乘法作为损失函数:没有除以总样本数m;均方误差(MSE):除以总样本数m 二、最小二乘法 与 均方误差的区别 博客对应课程的视频位置: 答案一: 最 阅读全文
posted @ 2020-10-28 13:07 范仁义 阅读(5606) 评论(0) 推荐(0) 编辑
摘要:极大似然估计 是什么 一、总结 一句话总结: 【利用信息反推参数值】:极大似然估计 就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 【模型已定,参数未知】:换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。 【让模 阅读全文
posted @ 2020-10-28 12:08 范仁义 阅读(646) 评论(0) 推荐(0) 编辑
摘要:pandas库疑难问题 4、DataFrame类型转换成Numpy中ndarray 一、总结 一句话总结: 可以使用DataFrame中的values属性或to_numpy方法 和 Numpy中的array方法 ans=df.values ans=df.to_numpy() ans=np.array 阅读全文
posted @ 2020-10-28 10:58 范仁义 阅读(1443) 评论(0) 推荐(0) 编辑
摘要:pandas库疑难问题 3、loc方法和iloc方法的区别 一、总结 一句话总结: loc方法是基于标签的,iloc方法是基于整数索引的 # iloc # 连续切片 print(data.iloc[1:3:1,1:3]) # 不连续 print(data.iloc[[1,3],[1,3]]) # l 阅读全文
posted @ 2020-10-28 10:29 范仁义 阅读(698) 评论(0) 推荐(0) 编辑
摘要:pandas转numpy并打平实例 一、总结 一句话总结: pandas转numpy:temp1=np.array(temp) numpy降维:x_data.append(temp1.flatten()) # 用第一个号码生成 序列数据,256个输入得到一个输出 def generate_data( 阅读全文
posted @ 2020-10-27 08:46 范仁义 阅读(492) 评论(0) 推荐(0) 编辑
摘要:list和numpy互相转换 一、总结 一句话总结: List转numpy.array:temp = np.array(list) numpy.array转List:arr = temp.tolist() 二、list和numpy互相转换 转自或参考:python中List类型与numpy.arra 阅读全文
posted @ 2020-10-27 08:35 范仁义 阅读(15295) 评论(0) 推荐(0) 编辑
摘要:pandas转numpy 一、总结 一句话总结: 1、使用DataFrame中的values方法:df.values 2、使用DataFrame中的as_matrix()方法:df.as_matrix() 3、使用Numpy中的array方法:np.array(df) 二、将Pandas中的Data 阅读全文
posted @ 2020-10-27 07:56 范仁义 阅读(9034) 评论(0) 推荐(0) 编辑
摘要:pandas库疑难问题 2、pandas切片操作 一、总结 一句话总结: pandas的iloc方法可以用来切片,iloc方法具体使用细节和Python切片操作以及NumPy切片操作几乎一样 iloc方法基本结构:iloc[start_index:end_index:step,start_index 阅读全文
posted @ 2020-10-27 05:34 范仁义 阅读(297) 评论(0) 推荐(0) 编辑
摘要:pandas切片操作 一、总结 一句话总结: pandas中的方法可以接在切片的数据之后 为某一列的特定的数据赋值:data[data["v"]<5] = 5 统计指定的多列的平均值:print(data.loc[:,["v","w"]].mean()) 统计某一列中某个数的出现次数:data[da 阅读全文
posted @ 2020-10-27 05:03 范仁义 阅读(667) 评论(0) 推荐(0) 编辑
摘要:pandas中的iloc和loc用法的区别 一、总结 一句话总结: iloc,即index locate 用index索引进行定位,所以参数是整型,如:df.iloc[10:20, 3:5] loc,则可以使用column名和index名进行定位,如:df.loc[‘image1’:‘image10 阅读全文
posted @ 2020-10-27 04:51 范仁义 阅读(701) 评论(0) 推荐(0) 编辑
摘要:NumPy疑难问题 1、NumPy切片操作 一、总结 一句话总结: numpy切片结构:array[start:stop:step,start:stop:step],前面的start:stop:step表示行,后面的start:stop:step表示列,具体细节和python切片操作一样 arr1= 阅读全文
posted @ 2020-10-26 23:51 范仁义 阅读(563) 评论(0) 推荐(0) 编辑
摘要:numpy切片操作 一、总结 一句话总结: numpy切片结构:array[start:stop:step,start:stop:step],前面的start:stop:step表示行,后面的start:stop:step表示列 arr1=np.arange(1,17).reshape((4,4)) 阅读全文
posted @ 2020-10-26 23:50 范仁义 阅读(1877) 评论(0) 推荐(0) 编辑
摘要:python疑难问题 13、Python切片操作 一、总结 一句话总结: Python切片操作的核心就是:切片操作的时候先分析step,因为step正负表示方向,再看start_index和end_index,step为正表示从左到右切片,为负表示从右往左(如果此时起点参数省略,那么起点应该是最右端 阅读全文
posted @ 2020-10-26 20:21 范仁义 阅读(936) 评论(0) 推荐(0) 编辑
摘要:Python切片操作总结 一、总结 一句话总结: 1、切片中索引是有正负的 2、切片操作的时候先分析step,因为step正负表示方向,再看start_index和end_index,step为正表示从左到右切片,为负表示从右往左(如果此时起点参数省略,那么起点应该是最右端) 3、切片操作除了列表, 阅读全文
posted @ 2020-10-26 20:19 范仁义 阅读(859) 评论(0) 推荐(0) 编辑
摘要:独立同分布(总结) 一、总结 一句话总结: 【服从同一分布,并且相互独立】:独立同分布(iid,independently identically distribution) [1] 在概率统计理论中,指随机过程中,任何时刻的取值都为随机变量,如果这些随机变量服从同一分布,并且互相独立,那么这些随机 阅读全文
posted @ 2020-10-24 12:56 范仁义 阅读(2364) 评论(0) 推荐(0) 编辑
摘要:多元线性回归模型 一、总结 一句话总结: 【也就是多元且一次的回归,系数是一次自然是线性】:回归分析中,含有两个或者两个以上自变量,称为多元回归,若自变量系数为1,则此回归为多元线性回归。 1、一元线性回归 与 二元线性回归图像(要回忆图)? 一元线性回归图形为一条直线。而二元线性回归,拟合的为一个 阅读全文
posted @ 2020-10-24 05:10 范仁义 阅读(4249) 评论(0) 推荐(0) 编辑
摘要:逻辑回归 到底是什么 一、总结 一句话总结: 逻辑回归就是在多元线性回归的基础上套了一个sigmoid函数 看这个公式就明白了:$$h _ { \theta } ( x ) = g ( \theta ^ { T } x ) = \frac { 1 } { 1 + e ^ { - \theta ^ { 阅读全文
posted @ 2020-10-24 05:09 范仁义 阅读(717) 评论(0) 推荐(0) 编辑
摘要:matplotlib库疑难问题 6、显示图片 一、总结 一句话总结: matplotlib库显示图片的话可以用imshow方法:例如plt.imshow(train_x[0]) 显示训练集的第一张图片 二、显示图片 博客对应课程的视频位置:6、显示图片-范仁义-读书编程笔记https://www.f 阅读全文
posted @ 2020-10-24 01:36 范仁义 阅读(199) 评论(0) 推荐(0) 编辑
摘要:matplotlib库疑难问题 5、保存动态图 一、总结 一句话总结: 保存图像的话,直接save方法即可,指定好 写入工具(writer)就好:ani.save('sin.gif', writer='imagemagick', fps=30) 二、保存动态图 博客对应课程的视频位置:5、保存动态图 阅读全文
posted @ 2020-10-23 22:25 范仁义 阅读(420) 评论(0) 推荐(0) 编辑
摘要:matplotlib库疑难问题 4、画动态图 一、总结 一句话总结: 主要是弄懂animation模块FuncAnimation函数,弄懂函数对应那些参数的意思就很简单了:animation.FuncAnimation(fig=fig,func=animate,frames=100,init_fun 阅读全文
posted @ 2020-10-23 21:18 范仁义 阅读(258) 评论(0) 推荐(0) 编辑
摘要:ImageMagick 的安装及使用(总结) 一、总结 一句话总结: ImageMagick是一款免费开源的图片编辑软件。既可以通过命令行使用,也可以通过C/C++、Perl、Java、PHP、Python或Ruby调用库编程来完成。ImageMagic的主要精力集中在性能,减少bug以及提供稳定的 阅读全文
posted @ 2020-10-23 07:46 范仁义 阅读(8750) 评论(0) 推荐(1) 编辑
摘要:jupyter notebook中%pylab的作用 一、总结 一句话总结: %pylab命令会在ipython或notebook环境中自动加载numpy和matplotlib库,跟以下语句功能一致 import numpy import matplotlib from matplotlib imp 阅读全文
posted @ 2020-10-23 07:06 范仁义 阅读(545) 评论(0) 推荐(0) 编辑
摘要:Matplotlib库backend 一、总结 一句话总结: matplotlib每一种输出的能力都叫做一种 backend,在我的理解中有点类似渲染器。IPython 中的魔法语句 %matplotlib xxxx 就是选择(激活) backend。 不可交互型backend:比如AGG(渲染为p 阅读全文
posted @ 2020-10-23 07:01 范仁义 阅读(2461) 评论(0) 推荐(0) 编辑
摘要:Matplotlib的FuncAnimation中blit的作用 一、总结 一句话总结: blit=True:选择更新所有点,还是仅更新产生变化的点。应选择True,但mac用户请选择False,否则无法显示。 ani = FuncAnimation(fig, update, frames=np.l 阅读全文
posted @ 2020-10-23 06:44 范仁义 阅读(1847) 评论(0) 推荐(0) 编辑
摘要:%matplotlib qt5 作用 一、总结 一句话总结: %matplotlib qt5 的作用就是激活 qt5 渲染后端:Qt5Agg:Agg rendering in a Qt5 canvas (requires PyQt5). This backend can be activated i 阅读全文
posted @ 2020-10-23 06:41 范仁义 阅读(1506) 评论(0) 推荐(0) 编辑
摘要:python返回多个值与赋值多个值 一、总结 一句话总结: 返回多个值:def min_max(list1): return min(list1),max(list1) 赋值多个值:min1,max1=min_max([1,3,5]) 1、b,=tuple2 怎么理解? 当tuple2是元组或者列表 阅读全文
posted @ 2020-10-23 03:44 范仁义 阅读(1464) 评论(0) 推荐(0) 编辑
摘要:%pylab的意思 一、总结 一句话总结: 【Load numpy and matplotlib to work interactively.】 【activate pylab】:This function lets you activate pylab (matplotlib, numpy and 阅读全文
posted @ 2020-10-23 02:01 范仁义 阅读(359) 评论(0) 推荐(0) 编辑
摘要:matplotlib的pyplot和pylab区别 一、总结 一句话总结: Pyplot:“方便快速绘图matplotlib通过pyplot模块提供了一套和MATLAB类似的绘图API,将众多绘图对象所构成的复杂结构隐藏在这套API内部。” pylab:“matplotlib还提供了一个名为pyla 阅读全文
posted @ 2020-10-22 20:55 范仁义 阅读(1172) 评论(0) 推荐(0) 编辑
摘要:Matplotlib.pyplot 常用方法 一、总结 一句话总结: 画图的画不要直接引matplotlib,而是要引它的子模块pyplot 二、Matplotlib.pyplot 常用方法 转自或参考:Matplotlib.pyplot 常用方法https://www.cnblogs.com/sh 阅读全文
posted @ 2020-10-22 20:55 范仁义 阅读(590) 评论(0) 推荐(0) 编辑
摘要:Matplotlib 画动态图: animation模块的使用 一、总结 一句话总结: 主要还是animation库,以及图片初始化和数据更新:from matplotlib.animation import FuncAnimation import numpy as np import matpl 阅读全文
posted @ 2020-10-22 20:54 范仁义 阅读(3133) 评论(1) 推荐(1) 编辑
摘要:python matplotlib 显示图像 一、总结 一句话总结: imshow方法:plt.imshow(x_train[0]) plt.imshow(x_train[0]) plt.show() 二、python matplotlib 显示图像 转自或参考:python matplotlib 阅读全文
posted @ 2020-10-22 20:52 范仁义 阅读(440) 评论(0) 推荐(0) 编辑
摘要:matplotlib库疑难问题 3、matplotlib绘图核心原理 一、总结 一句话总结: (1)使用matplotlib绘图的原理,主要就是理解figure(画布)、axes(坐标系)、axis(坐标轴)三者之间的关系。 (2)在matplotlib画图过程中,figure(画布)和axes(坐 阅读全文
posted @ 2020-10-22 01:12 范仁义 阅读(225) 评论(0) 推荐(0) 编辑
摘要:plt.rcParams参数总结 一、总结 一句话总结: plt(matplotlib.pyplot)使用rc配置文件来自定义图形的各种默认属性,称之为rc配置或rc参数。 通过rc参数可以修改默认的属性,包括窗体大小、每英寸的点数、线条宽度、颜色、样式、坐标轴、坐标和网络属性、文本、字体等。rc参 阅读全文
posted @ 2020-10-21 23:45 范仁义 阅读(2502) 评论(0) 推荐(0) 编辑
摘要:matplotlib库疑难问题 2、将曲线平滑 一、总结 一句话总结: 曲线平滑的原理非常简单,将每一个点的值变为 上一个节点*0.8+当前节点*0.2 # 平滑函数的作用是将每一个点的值变为 上一个节点*0.8+当前节点*0.2 def smooth_curve(points, factor=0. 阅读全文
posted @ 2020-10-21 23:40 范仁义 阅读(1490) 评论(1) 推荐(0) 编辑
摘要:matplotlib库疑难问题 1、解决中文乱码问题 一、总结 一句话总结: plt.rcParams["font.sans-serif"]=["SimHei"] # 设置matplotlib库字体的非衬线字体为黑体 plt.rcParams["font.family"]="sans-serif" 阅读全文
posted @ 2020-10-21 22:58 范仁义 阅读(1428) 评论(0) 推荐(0) 编辑
摘要:matplotlib 之 plt.rcParams[](中文乱码以及负号显示异常) 一、总结 一句话总结: 【matplotlib的配置文件即.rc文件】:matplotlib 是为 python 提供强大绘图功能的第三方库,它的配置文件即 .rc 文件,为 matplotlib 输出图形的几乎所有 阅读全文
posted @ 2020-10-21 22:55 范仁义 阅读(2380) 评论(0) 推荐(0) 编辑
摘要:201021_Deep_Learning 1.0、Introduction 一、总结 一句话总结: Books in Chinese and English can be read together for easy understanding. If you take notes, use Eng 阅读全文
posted @ 2020-10-21 08:07 范仁义 阅读(164) 评论(0) 推荐(0) 编辑
摘要:python疑难问题 12、python生成器 一、总结 一句话总结: 在Python中,一边循环一边计算的机制,称为生成器:generator。 g3 = (x+3 for x in range(20)) for i in g3: print(i) 3 4 5 6 7 8 9 10 11 12 1 阅读全文
posted @ 2020-10-20 22:50 范仁义 阅读(334) 评论(0) 推荐(0) 编辑
摘要:python的魔术方法总结 一、总结 一句话总结: 在Python中,所有以“__”双下划线包起来的方法,都统称为“Magic Method”(魔术方法),例如类的初始化方法 __init__ ,Python中所有的魔术方法均在官方文档中有相应描述 魔术方法例如__new__(cls[, ...]) 阅读全文
posted @ 2020-10-20 22:47 范仁义 阅读(283) 评论(0) 推荐(0) 编辑
摘要:python疑难问题 11、python内嵌for...in循环 一、总结 一句话总结: y=[x for x in range(100)] 表示先做for...in循环,x会得到0到99,然后把这0到99这100个数放到[](列表)中 y=[x for x in range(100)] print 阅读全文
posted @ 2020-10-20 18:21 范仁义 阅读(614) 评论(0) 推荐(0) 编辑
摘要:python疑难问题 10、python遍历字典的几种方式 一、总结 一句话总结: 遍历字典中的键和值:for...in循环:for i in dict1: print(i,dict1[i]) 遍历字典中的键:keys方法:for key in dic1.keys(): 遍历字典中的值:values 阅读全文
posted @ 2020-10-20 17:24 范仁义 阅读(581) 评论(0) 推荐(0) 编辑
摘要:归一化、标准化、正则化的概念和区别(总结) 一、总结 一句话总结: 归一化(Normalization):【把数据变为(0,1)之间的小数,比如min-max归一化】。主要是为了方便数据处理,因为将数据映射到0~1范围之内,可以使处理过程更加便捷、快速。 标准化(Standardization):【 阅读全文
posted @ 2020-10-20 07:14 范仁义 阅读(5011) 评论(0) 推荐(0) 编辑
摘要:深度学习模型调优方法(总结) 一、总结 一句话总结: 超参数的优化,其它比如正则化(regularization)、丢弃参数(dropout)、提前停止训练(early stopping) 1、如何判断模型好坏? 【查看loss和accuracy】:通过模型训练跑代码,我们可以分别从训练集和测试集上 阅读全文
posted @ 2020-10-20 07:04 范仁义 阅读(868) 评论(0) 推荐(0) 编辑
摘要:变分自编码器 一、总结 一句话总结: 【将概率图跟深度学习结合起来的一个非常棒的案例】:总的来说,VAE的思路还是很漂亮的。倒不是说它提供了一个多么好的生成模型(因为事实上它生成的图像并不算好,偏模糊),而是它提供了一个将概率图跟深度学习结合起来的一个非常棒的案例,这个案例有诸多值得思考回味的地方。 阅读全文
posted @ 2020-10-19 19:09 范仁义 阅读(289) 评论(0) 推荐(0) 编辑
摘要:Tensorflow2课程 1、课程介绍 一、总结 一句话总结: 二、Tensorflow2课程介绍 博客对应课程的视频位置:1、课程介绍-范仁义-读书编程笔记https://www.fanrenyi.com/video/42/367 Tensorflow是深度学习比较常用的框架 1、课程特色 1) 阅读全文
posted @ 2020-10-19 17:30 范仁义 阅读(199) 评论(0) 推荐(0) 编辑
摘要:github疑难问题 4、github绑定ssh key 一、总结 一句话总结: 直接参考github官网教程,一步步跟着做,非常详细:https://docs.github.com/en/free-pro-team@latest/github/authenticating-to-github/co 阅读全文
posted @ 2020-10-18 21:59 范仁义 阅读(212) 评论(0) 推荐(0) 编辑
摘要:github疑难问题 3、git reset --hard HEAD~2误删操作恢复 一、总结 一句话总结: 1、【找到需要恢复的版本id】:git reflog看到被删除的commitid,下一步就可以根据这个commitid恢复到对应的版本 2、【恢复到指定版本】:执行$git reset -- 阅读全文
posted @ 2020-10-18 21:16 范仁义 阅读(4039) 评论(0) 推荐(0) 编辑
摘要:github疑难问题 2、git中的工作区、暂存区和版本库分别是什么 一、总结 一句话总结: 【工作区就是本机目录】:git的工作区就是我们本机的目录,比如我们git clone下来的那个仓库github_test目录 【暂存区就是暂时存放文件的地区】:git add这条命令可以将工作区中的文件加入 阅读全文
posted @ 2020-10-18 17:07 范仁义 阅读(296) 评论(0) 推荐(0) 编辑
摘要:git暂存区的理解 一、总结 一句话总结: .git/index就是git的暂存区,是一个包含文件索引的目录树,记录了文件名、文件的状态信息(时间戳、文件长度等),文件的内容并不存储其中 文件的内容并不存储.git/index,而是保存在 Git 对象库(.git/objects)中,文件索引建立了 阅读全文
posted @ 2020-10-18 14:41 范仁义 阅读(1456) 评论(0) 推荐(0) 编辑
摘要:Git之工作区、暂存区和版本库分别是什么 一、总结 一句话总结: 【工作区就是本机目录】:git的工作区就是我们本机的目录 【暂存区就是暂时存放文件的地区】:git add这条命令可以将工作区中的文件加入到暂存区 【版本库就是.git这个隐藏目录】:当我们使用git commit时,就会将暂存区的所 阅读全文
posted @ 2020-10-18 14:23 范仁义 阅读(322) 评论(0) 推荐(0) 编辑
摘要:github疑难问题 1、error: src refspec master does not match any. 一、总结 一句话总结: 问题原因是没匹配到master分支,所以用git push提交到远程分支的时候指定分支为main就好:git push -u origin main 1、gi 阅读全文
posted @ 2020-10-18 03:07 范仁义 阅读(2184) 评论(1) 推荐(2) 编辑
摘要:《python深度学习》笔记 9.3、深度学习的未来 一、总结 一句话总结: 【模型将变得更像程序,其能力将远远超出我们目前对输入数据所做的连续几何变换】:这些程序可以说是更加接近于人类关于周围环境和自身的抽象心智模型。因为它们具有丰 富的算法特性,所以还具有更强的泛化能力。 【具体而言,模型将会融 阅读全文
posted @ 2020-10-17 00:49 范仁义 阅读(190) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 9.2、深度学习的局限性 一、总结 一句话总结: 【深度学习不能做任何推理的工作】:一般来说,任何需要推理(比如编程或科学方法的应用)、长期规划和算法数据处理的东西,无 论投入多少数据,深度学习模型都无法实现。 【深度学习对排序都难做】:即使是排序算法,用深度神经网络来 阅读全文
posted @ 2020-10-17 00:29 范仁义 阅读(247) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 9.1、深度学习知识回顾 一、总结 一句话总结: 【深度学习可能在几年的时间里被夸大炒作,但从长远来看,它仍然是一场改变我们经济和生活的重大革命】:炒作很可能会烟消云散,但深度学习带来的持久经济影响和技术影响将会永远持续 下去。从这个意义上来讲,深度学习与互联网很类似: 阅读全文
posted @ 2020-10-17 00:00 范仁义 阅读(151) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 8.5、生成式对抗网络简介 一、总结 一句话总结: 【gan可以替代VAE来学习图像的潜在空间,它能够迫使生成图像与真实图像在统计上几乎无法区分】:生成式对抗网络(GAN,generative adversarial network)由Goodfellow 等人于201 阅读全文
posted @ 2020-10-16 22:35 范仁义 阅读(499) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 8.4、用变分自编码器生成图像 一、总结 一句话总结: 【用深度学习进行图像生成,就是通过对潜在空间进行学习来实现的】:这个潜在空间能够 捕捉到关于图像数据集的统计信息。通过对潜在空间中的点进行采样和解码,我们可以 生成前所未见的图像。这种方法有两种重要工具:变分自编码 阅读全文
posted @ 2020-10-16 20:57 范仁义 阅读(502) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 8.3、神经风格迁移 一、总结 一句话总结: 神经风格迁移是指将参考图像的风格应用于目标图像,同时保留目标图像的内容。 1、“神经风格迁移是指将参考图像的风格应用于目标图像,同时保留目标图像的内容” 中的风格和内容分别指什么? 【风格(style)是指图像中不同空间尺度 阅读全文
posted @ 2020-10-16 18:23 范仁义 阅读(389) 评论(0) 推荐(0) 编辑
摘要:Git 里面的 origin 到底代表啥意思? 一、总结 一句话总结: 【origin指向的就是你本地的代码库托管在Github上的版本】:你的代码库(repository)可以存放在你的电脑里,同时你也可以把代码库托管到Github的服务器上。在默认情况下,origin指向的就是你本地的代码库托管 阅读全文
posted @ 2020-10-16 17:07 范仁义 阅读(789) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 8.2、DeepDream 一、总结 一句话总结: 【艺术性的图像修改技术】:DeepDream 是一种艺术性的图像修改技术,它用到了卷积神经网络学到的表示。 【迷幻图像】:它很快在网上引起了轰动,这要归功于它所生成的迷幻图像,图像中充满了算法生成的错觉式伪影、鸟羽毛和 阅读全文
posted @ 2020-10-16 00:59 范仁义 阅读(264) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 8.1、使用LSTM生成文本 一、总结 一句话总结: 其实原理非常简单,就是单层的LSTM把训练数据中单词与字符的统计规律学好,然后softmax层相当于分类对应到词表中的各个字符的概率 from tensorflow.keras import layers model 阅读全文
posted @ 2020-10-16 00:27 范仁义 阅读(572) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.3.3、模型集成 一、总结 一句话总结: 【集成是指将一系列不同模型的预测结果汇集到一起,从而得到更好的预测结果】:想要在一项任务上获得最佳结果,另一种强大的技术是模型集成(model ensembling)。集 成是指将一系列不同模型的预测结果汇集到一起,从而得到 阅读全文
posted @ 2020-10-15 18:12 范仁义 阅读(226) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.3.2、超参数优化 一、总结 一句话总结: 【架构层面的参数叫作超参数】:这些在架构层面的参数叫 作超参数(hyperparameter),以便将其与模型参数区分开来,后者通过反向传播进行训练。 1、神经网络中的 超参数是什么,有哪些? 应该堆叠多少层?每层应该 包 阅读全文
posted @ 2020-10-15 17:47 范仁义 阅读(354) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.3.1、高级架构模式 一、总结 一句话总结: 残差连接,标准化和深度可分离卷积 1、标准化? 【归一化也是标准化】:将数据减去其平均值使其中心为0,然后将数据除以其标准差使其标准 差为 1。实际上,这种做法假设数据服从正态分布(也叫高斯分布),并确保让该分布的中心为 阅读全文
posted @ 2020-10-15 17:00 范仁义 阅读(140) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.2.2、TensorBoard 来检查并监控深度学习模型 一、总结 一句话总结: 使用TensorFlow 时,TensorBoard 是一种在浏览器中将模型活动可视化的好方法。在 Keras 模型中你可以通过 TensorBoard 回调函数来使用这种方法。 1、 阅读全文
posted @ 2020-10-15 15:43 范仁义 阅读(178) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.2.1、使用 Keras 回调函数 一、总结 一句话总结: 【在训练过程中的不同时间点都会被模型调用】:回调函数(callback)是在调用 fit 时传入模型的一个对象(即实现特定方法 的类实例),它在训练过程中的不同时间点都会被模型调用。 【中断训练、保存模型、 阅读全文
posted @ 2020-10-15 14:19 范仁义 阅读(214) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 7.1、Keras函数式API 一、总结 一句话总结: 【Sequential API功能有限】:如果你需要实现的架构不仅仅是层的线性堆叠,那么不要局限于 Sequential API。 【函数式API用来构建复杂模型】:如何使用Keras 函数式API 来构建多输入模 阅读全文
posted @ 2020-10-15 13:43 范仁义 阅读(194) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.4、用卷积神经网络处理序列 一、总结 一句话总结: 【卷积神经网络提取特征所以在计算机视觉表现出色】:卷积神经网络(convnet),并知道它在计算机视觉问题上表现出色,原因 在于它能够进行卷积运算,从局部输入图块中提取特征,并能够将表示模块化,同时可以高效 地利用 阅读全文
posted @ 2020-10-14 16:37 范仁义 阅读(565) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.3、循环神经网络的高级用法 一、总结 一句话总结: 循环dropout(recurrent dropout):这是一种特殊的内置方法,在循环层中使用dropout 来降低过拟合。 堆叠循环层(stacking recurrent layers):这会提高网络的表示能 阅读全文
posted @ 2020-10-14 14:18 范仁义 阅读(279) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.2-3、循环神经网络-理解LSTM层和GRU层 一、总结 一句话总结: SimpleRNN 并不是Keras 中唯一可用的循环层,还有另外两个:LSTM 和 GRU。在实践中 总会用到其中之一,因为 SimpleRNN 通常过于简化,没有实用价值。 1、Simple 阅读全文
posted @ 2020-10-14 01:39 范仁义 阅读(351) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.2-2、循环神经网络-IMDB电影评论分类实例 一、总结 一句话总结: model.add(Embedding(max_features, 32)) model.add(SimpleRNN(32)) model.add(Dense(1, activation='si 阅读全文
posted @ 2020-10-14 00:38 范仁义 阅读(506) 评论(0) 推荐(0) 编辑
摘要:ssh key GitHub 验证不成功?来看看是不是这个原因 一、总结 一句话总结: 【Adding your SSH key to the ssh-agent】:忘记执行ssh-add id_rsa命令,会一直验证不成功 二、ssh key GitHub 验证不成功?来看看是不是这个原因 转自或 阅读全文
posted @ 2020-10-13 22:56 范仁义 阅读(393) 评论(0) 推荐(0) 编辑
摘要:git push 失败出现error: src refspec master does not match any.解决方案 一、总结 一句话总结: 分析问题原因是没match到master分支 对比正常提交的仓库,发现是配置文件中的branch是main 所以用git push -u origin 阅读全文
posted @ 2020-10-13 22:40 范仁义 阅读(492) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.1-3、word embedding-使用预训练的词嵌入 一、总结 一句话总结: 【将文本转换为能处理的格式】:将原始文本转换为神经网络能够处理的格式。 【Keras 模型的 Embedding 层】:使用 Keras 模型的 Embedding 层来学习针对特定任 阅读全文
posted @ 2020-10-13 17:07 范仁义 阅读(814) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.1-2、word embedding-利用 Embedding 层学习词嵌入 一、总结 一句话总结: 【考虑到仅查看每条评论的前 20 个单词】:得到的验证精度约为 76%,考虑到仅查看每条评论的前 20 个单词,这个结果还是相当不错 的。 【没有考虑单词之间的关系 阅读全文
posted @ 2020-10-13 16:10 范仁义 阅读(858) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.1、word embedding 一、总结 一句话总结: 将单词与向量相关联还有另一种常用的强大方法,就是使用密集的词向量(word vector), 也叫词嵌入(word embedding)。 1、词向量和词嵌入的关系? 词向量(word vector)也叫词嵌 阅读全文
posted @ 2020-10-13 15:57 范仁义 阅读(374) 评论(0) 推荐(0) 编辑
摘要:Jupyter Notebook疑难问题 1、更改Jupyter Notebook默认打开目录 一、总结 一句话总结: 1、打开 cmd 输入命令 jupyter notebook --generate-config来生成jupyter notebook配置文件 2、找到配置文件:C:\Users\ 阅读全文
posted @ 2020-10-13 01:23 范仁义 阅读(245) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6.1、one-hot-encoding 一、总结 一句话总结: 用的texts_to_matrix方法:one_hot_results = tokenizer.texts_to_matrix(samples, mode='binary') 这里的one-hot是bin 阅读全文
posted @ 2020-10-13 00:22 范仁义 阅读(455) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6、文本和序列 一、总结 一句话总结: 循环神经网络(recurrent neural network)和一维卷积神经网络(1D convnet):可以用来处理文本和序列的问题。 1、用于处理序列的两种基本的深度学习算法分别是 什么? 循环神经网络(recurrent 阅读全文
posted @ 2020-10-12 23:23 范仁义 阅读(217) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 6、理解 n-gram 和词袋 一、总结 一句话总结: 【不保存顺序的分词方法】:词袋是一种不保存顺序的分词方法(生成的标记组成一个集合,而不是一个序列,舍 弃了句子的总体结构),因此它往往被用于浅层的语言处理模型,而不是深度学习模型。 二元语法(2-grams)集合: 阅读全文
posted @ 2020-10-12 23:07 范仁义 阅读(586) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.4-3、卷积网络可视化-热力图 一、总结 一句话总结: 【一张图像的哪一部分让卷积神经网络做出了最终的分类决策】:可视化类激活的热力图,它有助于了解一张图像的哪一部分让卷积神经网络做出了 最终的分类决策。这有助于对卷积神经网络的决策过程进行调试,特别是出现分类错误的 阅读全文
posted @ 2020-10-12 16:15 范仁义 阅读(1287) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.4-2、卷积网络可视化-过滤器 一、总结 一句话总结: 【每一层都学习一组过滤器】:卷积神经网络中每一层都学习一组过滤器,以便将其输入表示为过滤器的组合。 【过滤器变得越来越复杂,越来越精细】:这类似于傅里叶变换将信号分解为一 组余弦函数的过程。随着层数的加深,卷积 阅读全文
posted @ 2020-10-12 15:30 范仁义 阅读(332) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.4-1、卷积网络可视化-可视化中间激活 一、总结 一句话总结: 【更高的层激活包含关于特定输入的信息越来越少,而关于目标的信息越来越多】:随着层数的加深,层所提取的特征变得越来越抽象。更高的层激活包含关于特定输入的信息越来越少,而关于目标的 信息越来越多(本例中即图 阅读全文
posted @ 2020-10-12 15:14 范仁义 阅读(311) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.3-4、猫狗分类(使用预训练网络-微调模型) 一、总结 一句话总结: 【微调是指将预训练网络的前几层解冻】:微调是指将预训练网络的前几层解冻,在猫狗分类的例子中,可以看到准确率从90到94,提高了4个百分点 【先训练好分类层】:微调的话,注意先把dense层(分类层 阅读全文
posted @ 2020-10-12 07:33 范仁义 阅读(541) 评论(0) 推荐(0) 编辑
摘要:matplotlib库曲线平滑 一、总结 一句话总结: 上一个节点*0.8+当前节点*0.2:smoothed_points.append(previous * factor + point * (1 - factor)) def smooth_curve(points, factor=0.8): 阅读全文
posted @ 2020-10-12 07:22 范仁义 阅读(1393) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.3-3、猫狗分类(使用预训练网络-数据增强的特征提取) 一、总结 一句话总结: 其实就是把vgg16对应的conv_base像层一样放到Sequential中,然后对图片进行数据增强即可 model.add(conv_base) from tensorflow.ke 阅读全文
posted @ 2020-10-11 23:51 范仁义 阅读(591) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.3-2、猫狗分类(使用预训练网络-实战) 一、总结 一句话总结: 【卷积就是特征提取】:从预训练网络训练猫狗分类,可以更加方便的理解卷积层就是特征提取 【使用预训练网络效果非常好】:我们的验证精度达到了约90%,比上一节从头开始训练的小型模型效果要好得多。但从图 中 阅读全文
posted @ 2020-10-11 17:20 范仁义 阅读(775) 评论(0) 推荐(0) 编辑
摘要:keras读取后缀名为.h5的文件 一、总结 一句话总结: 【hdf5存储,get_weights的函数可以查看】:Keras的模型是用hdf5存储的,如果想要查看模型,keras提供了get_weights的函数可以查看: for layer in model.layers: weights = 阅读全文
posted @ 2020-10-11 15:03 范仁义 阅读(403) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.3-1、猫狗分类(使用预训练网络) 一、总结 一句话总结: 【小型图像数据集】:想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。 【用卷积层提取的特征】:使用在ImageNet 上训练的VGG16 网络的卷积基从 猫狗图像中提取有趣的特 阅读全文
posted @ 2020-10-11 00:56 范仁义 阅读(721) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.2-4、猫狗分类(数据增强) 一、总结 一句话总结: 相比于之前的基本模型,数据增强只是在对应的train_datagen的ImageDataGenerator中增加了一些数据增强的参数 可以看到,数据增强的效果非常好,测试集准确率从71提升到了83左右 train 阅读全文
posted @ 2020-10-10 23:17 范仁义 阅读(583) 评论(0) 推荐(0) 编辑
摘要:model.fit中的validation_data的作用 一、总结 一句话总结: Data on which to evaluate the loss and any model metrics at the end of each epoch. Data on which to evaluate 阅读全文
posted @ 2020-10-10 22:52 范仁义 阅读(2206) 评论(0) 推荐(0) 编辑
摘要:tensorflow:Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least steps_per_epoch * epochs 阅读全文
posted @ 2020-10-10 22:28 范仁义 阅读(4885) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.2-3、猫狗分类(基本模型) 一、总结 一句话总结: 模型的话也是比较普通的卷积神经网络,就是图像数据用的生成器:ImageDataGenerator 1、ImageDataGenerator.flow_from_directory常用参数的意思? |||-begi 阅读全文
posted @ 2020-10-10 20:27 范仁义 阅读(1768) 评论(0) 推荐(2) 编辑
摘要:keras的图像预处理ImageDataGenerator类 一、总结 一句话总结: 【图片生成器-“喂”一个batch_size大小的样本数据】:ImageDataGenerator()是keras.preprocessing.image模块中的图片生成器,可以每一次给模型“喂”一个batch_s 阅读全文
posted @ 2020-10-10 19:52 范仁义 阅读(2293) 评论(0) 推荐(1) 编辑
摘要:《python深度学习》笔记 5.2-2、猫狗分类(图片数据处理) 一、总结 一句话总结: 【将训练数据中的猫狗头像分训练集、验证集、测试集分好】:其实就是将训练数据中的猫狗头像分训练集、验证集、测试集分好,简单一点来说就是图片的复制粘贴 1、python的os模块的路径拼接和创建目录? 路径拼接: 阅读全文
posted @ 2020-10-10 19:33 范仁义 阅读(989) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.2-1、猫狗分类(流程) 一、总结 一句话总结: 【一、:基准网络(71%)】:首先,在2000 个训练样本上训练一个简单的小型卷积神经网络,不做任何正则化,为模型目标 设定一个基准。这会得到71% 的分类精度。此时主要的问题在于过拟合。 【二、:数据增强解决过拟合 阅读全文
posted @ 2020-10-10 18:50 范仁义 阅读(535) 评论(0) 推荐(0) 编辑
摘要:验证集的作用是调整超参数 一、总结 一句话总结: |||-begin验证集的作用是调整超参数,那么Keras的验证集的作用在训练过程中调整了哪些超参数?例如学习率,神经元数目,层数?|||-end 【调超参数的方法交叉验证】:调超参数的方法是cross-validation (交叉验证),这里的va 阅读全文
posted @ 2020-10-10 14:28 范仁义 阅读(1827) 评论(0) 推荐(0) 编辑
摘要:验证集真正作用 一、总结 一句话总结: 验证集的作用就是为了调整超参数 1、超参数? 【超参数的值不是学习出来的】:大多数机器学习算法都有超参数,可以设置来控制算法行为。超参数的值不是通过学习算法本身学习出来的。 【超参数如果学习太难优化】:有时一个选项被设为学习算法不用学习的超参数,是因为它太难优 阅读全文
posted @ 2020-10-10 14:14 范仁义 阅读(3837) 评论(1) 推荐(1) 编辑
摘要:理解 Python 生成器 一、总结 一句话总结: 【什么时候调用,什么时候计算并返回值】:生成器仅仅保存了一套生成数值的算法,并且没有让这个算法现在就开始执行,而是我什么时候调它,它什么时候开始计算一个新的值,并给你返回。 1、生成器定义? 在Python中,一边循环一边计算的机制,称为生成器:g 阅读全文
posted @ 2020-10-10 01:05 范仁义 阅读(252) 评论(0) 推荐(0) 编辑
摘要:git 查看暂存区 一、总结 一句话总结: git ls-files 命令是用来查看暂存区中文件信息 二、git 查看暂存区 转自或参考:git 查看暂存区https://www.cnblogs.com/panbingwen/p/10736915.html 一、简介 git ls-files 命令是 阅读全文
posted @ 2020-10-09 15:38 范仁义 阅读(969) 评论(0) 推荐(0) 编辑
摘要:清空git缓存 一、总结 一句话总结: git rm --cached "文件路径",不删除物理文件,仅将该文件从缓存中删除; git rm --f "文件路径",不仅将该文件从缓存中删除,还会将物理文件删除(不会回收到垃圾桶); 二、清空git缓存 转自或参考:git删除缓存区中文件 https: 阅读全文
posted @ 2020-10-09 14:41 范仁义 阅读(2239) 评论(0) 推荐(0) 编辑
摘要:Fixing the “GH001: Large files detected. You may want to try Git Large File Storage.” 一、总结 一句话总结: It turned out that GitHub only allows for 100 MB fil 阅读全文
posted @ 2020-10-09 14:40 范仁义 阅读(781) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.1、卷积神经网络简介 一、总结 一句话总结: 弄清楚为什么不同卷积核为什么得到的是不同的特征图 为什么下采样采用最大池化层(为什么不是渐进卷积层或平均池化) 1、dense层的名字? 密集连接层 2、密集连接层和卷积层的根本区别? Dense层是全局模式:Dense 阅读全文
posted @ 2020-10-08 21:47 范仁义 阅读(447) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5、CNN的多个卷积核为什么能提取到不同的特征 一、总结 一句话总结: 过滤器的权重是随机初始化的 只有卷积核学习到不同的特征,才会减少成本函数 随机初始化的权重可能会确保每个过滤器收敛到成本函数的不同的局部最小值。每个过滤器开始模仿其他过滤器是不可能的,因为这几乎肯定 阅读全文
posted @ 2020-10-08 20:44 范仁义 阅读(1249) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5、卷积神经网络识别图像比密集连接层好的根本原因 一、总结 一句话总结: 平移不变性:【右下角学到某个模式之后,它可以在任何地方识别这个模式】:卷积神经网络学到的模式具有平移不变性(translation invariant)。卷积神经网络在图像 右下角学到某个模式之后 阅读全文
posted @ 2020-10-08 18:09 范仁义 阅读(175) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 4.5、机器学习的通用工作流程 一、总结 一句话总结: 开发过拟合的模型。 基于模型在验证数据上的性能来进行模型正则化与调节超参数 1、广泛使用的分类指标ROC AUC 就不能被直接优化? 优化 ROC AUC 的替代指标:因此在分类任务 中,常见的做法是优化 ROC 阅读全文
posted @ 2020-10-08 17:11 范仁义 阅读(135) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 4.4、过拟合与欠拟合(解决过拟合常见方法) 一、总结 一句话总结: 减小网络大小 添加权重正则化 添加 dropout 正则化 1、机器学习的根本问题? 优化和泛化之间的对立:机器学习的根本问题是优化和泛化之间的对立。 2、机器学习的根本问题是优化和泛化之间的对立:优 阅读全文
posted @ 2020-10-07 23:41 范仁义 阅读(715) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 4.3、数据预处理、特征工程和特征学习 一、总结 一句话总结: 神经网络的数据预处理:向量化、标准化、处理缺失 值和特征提取。 特征工程:利用你自己关于数据和机器学习算法(这里指神经网络)的知识对数据进行硬编码的变换(不是模型学到的),以改善模型的效果。 1、神经网络的 阅读全文
posted @ 2020-10-07 21:32 范仁义 阅读(340) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 4.1-4.2、机器学习的四个分支 一、总结 一句话总结: 弄清楚分类便于构建知识架构:监督学习、无监督学习、自监督学习、强化学习 1、虽然监督学习主要包括分类和回归,但还有更多的奇特变体,主要包括如下几种? 序列生成(sequence generation):给定一张 阅读全文
posted @ 2020-10-07 20:29 范仁义 阅读(192) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.6、预测房价:回归问题 一、总结 一句话总结: (404, 13)对应模型输入是13维度:因为train_data的结构是(404, 13),也就是13维,所以模型输入维度就是13维 输出层一个神经元拟合任何数:因为是回归问题,所以输出层就是只有一个神经元的dens 阅读全文
posted @ 2020-10-07 02:57 范仁义 阅读(466) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.5、路透社数据集:多分类问题 一、总结 一句话总结: 对于文字分类,可以转化为类似one_hot的方式,也就是单词数字对应的位置为1 def vectorize_sequences(sequences, dimension=10000): results = np. 阅读全文
posted @ 2020-10-07 01:31 范仁义 阅读(526) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.4-2、(a)电影评论分类:二分类问题 一、总结 一句话总结: 输入模型的数据转化:电影评论分类-二分类问题要注意输入模型的数据转化: 把出现的单词对应的数字的位置标为1:将数据集中的每条数据采用类似one_hot编码的方式,就是把出现这个单词的位置的编号这里的数置 阅读全文
posted @ 2020-10-06 23:43 范仁义 阅读(307) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.4、电影评论分类:二分类问题 一、总结 一句话总结: binary_crossentropy损失函数:对于二分类问题的 sigmoid 标量输出,你应该使用 binary_crossentropy 损失函数。 不是越训练越好:随着神经网络在训练数据上的表现越来越好, 阅读全文
posted @ 2020-10-06 15:59 范仁义 阅读(504) 评论(0) 推荐(1) 编辑
摘要:遍历字典的几种方式 一、总结 一句话总结: 遍历字典中的键:普通for.in循环:for i in dic1: 遍历字典中的键:keys方法:for key in dic1.keys(): 遍历字典中的值:values方法:for value in dic1.values(): 遍历字典中的元素:i 阅读全文
posted @ 2020-10-06 15:42 范仁义 阅读(824) 评论(0) 推荐(0) 编辑
摘要:setting an array element with a sequence 一、总结 一句话总结: 报错原因:矩阵的列没有对齐,有的多,有的少 二、setting an array element with a sequence 转自或参考: 原因与解决: 矩阵的列没有对齐,一般情况用这个方法 阅读全文
posted @ 2020-10-06 15:39 范仁义 阅读(21693) 评论(0) 推荐(0) 编辑
摘要:np.array()和np.asarray()的区别 一、总结 一句话总结: 是否copy:主要区别在于 np.array (默认情况下)将会copy该对象,而 np.asarray 除非必要,否则不会copy该对象。 和array功能相关:y_train = np.asarray(train_la 阅读全文
posted @ 2020-10-06 15:38 范仁义 阅读(4631) 评论(0) 推荐(0) 编辑
摘要:Python语句内嵌for-in循环 一、总结 一句话总结: y=[[x]for x in range(100)] reverse_word_index = dict([(value, key) for (key, value) in dict1.items()]) 二、Python语句内嵌for- 阅读全文
posted @ 2020-10-05 20:56 范仁义 阅读(430) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.2-3.3、Keras 简介 一、总结 一句话总结: 不处理张量操作:Keras 是一个模型级(model-level)的库,为开发深度学习模型提供了高层次的构建模块。 它不处理张量操作、求微分等低层次的运算 Keras张量操作由后端引擎实现:Keras 有三个后端 阅读全文
posted @ 2020-10-05 16:15 范仁义 阅读(240) 评论(0) 推荐(0) 编辑
摘要:CTC(Connectionist Temporal Classification)介绍 一、总结 一句话总结: CTC,Connectionist Temporal Classification,用来解决输入序列和输出序列难以一一对应的问题。 二、CTC(Connectionist Tempora 阅读全文
posted @ 2020-10-05 12:08 范仁义 阅读(1074) 评论(0) 推荐(0) 编辑
摘要:Keras的TimeDistributed层作用 一、总结 一句话总结: 时间维度上全连接:Keras的TimeDistributed层主要用途是在时间维度上进行全连接. 时间维度上切片全连接:一次性输入16×7×7×512,进行全连接,相当于16个时间切片,对每个7×7×512的切片分别进行全连接 阅读全文
posted @ 2020-10-05 12:02 范仁义 阅读(784) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 3.1、神经网络剖析 一、总结 一句话总结: |||-being 训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的 |||-end 层,多个层组合成网络(或模型)。 输入数据和相应的目标。 损失函数,即用于学习的反馈信号。 优化器,决定学习过程如何进行。 1 阅读全文
posted @ 2020-10-04 21:56 范仁义 阅读(197) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 2.4、神经网络的“引擎”:基于梯度的优化 一、总结 一句话总结: 其实真的比较简单,就是损失函数,然后前向传播,反向传播 1、随机初始化(random initialization)? 较小随机数:一开始,这些权重矩阵取较小的随机值,这一步叫作随机初始化(random 阅读全文
posted @ 2020-10-04 19:39 范仁义 阅读(288) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 2.1-2.3、神经网络的数学基础 一、总结 一句话总结: 神经网络由张量表示:前面讲过,神经网络完全由一系列张量运算组成,而这些张量运算都只是输入数据的几何 变换。 高维空间复杂变换:因此,你可以将神经网络解释为高维空间中非常复杂的几何变换,这种变换可以通过许 多简单 阅读全文
posted @ 2020-10-04 18:37 范仁义 阅读(278) 评论(0) 推荐(0) 编辑
摘要:【tensorflow2.0】模型层layers 一、总结 一句话总结: Bidirectional:双向循环网络包装器。可以将LSTM,GRU等层包装成双向循环网络。从而增强特征提取能力。 x = layers.Bidirectional(layers.LSTM(settings.LSTM_UNI 阅读全文
posted @ 2020-10-04 13:18 范仁义 阅读(413) 评论(0) 推荐(0) 编辑
摘要:《python深度学*》笔记 1.3、为什么是深度学*,为什么是现在 一、总结 一句话总结: 深度学**些年投资特别多,而且目前没有迹象表明这种趋势会在短期内放缓,所以搞这行一定可以赚到很多钱 1、有时候,大事件都是从游戏 开始的? NVIDIA和AMD等公司投资数十亿美元:在20 世纪前十年里,N 阅读全文
posted @ 2020-10-03 17:06 范仁义 阅读(210) 评论(0) 推荐(0) 编辑
摘要:XGBoost是什么 一、总结 一句话总结: Gradient Boosting Decision Tree:XGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了GBDT算法并进行了算法和工程上的许多改进,被广泛应用在Kaggle竞赛及其他许多机器学习竞赛中并取得了不错的成绩。 X ( 阅读全文
posted @ 2020-10-03 15:39 范仁义 阅读(1137) 评论(0) 推荐(0) 编辑
摘要:梯度提升决策树 算法过程 一、总结 一句话总结: 弱分类器拟合残差:GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值,然后下一个弱分类器去拟合误差函数对预测值的残差(这个残差就是预测值与真实值之间的误差)。当然了,它里面的弱分类器的表现形式就是各棵树。 1、Boosting思想? 串行:B 阅读全文
posted @ 2020-10-03 14:46 范仁义 阅读(930) 评论(0) 推荐(0) 编辑
摘要:集成方法中的梯度提升回归树(梯度提升机)模型 一、总结 一句话总结: 合并多个决策树:梯度提升回归树是另一种集成方法,通过合并多个决策树来构建一个更为强大的模型。 回归和分类:虽然名字中含有“回归”,但这个模型既可以用于回归也可以用于分类。 每颗树都试图纠正前一棵树的错误:与随机森林方法不同,梯度提 阅读全文
posted @ 2020-10-03 14:16 范仁义 阅读(1091) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 1.2、深度学习之前:机器学习简史 一、总结 一句话总结: 梯 度提升机用于处理结构化数据的问题,而深度学习则用于图像分类等感知问题。 1、概率建模(probabilistic modeling)? 就是概率模型,比如朴素贝叶斯:概率建模(probabilistic m 阅读全文
posted @ 2020-10-03 00:23 范仁义 阅读(168) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 1.1、人工智能、机器学习与深度学习 一、总结 一句话总结: 人工智能包含机器学习,机器学习包含深度学习 系统看看书,体系比较清晰 1、从噪声中识别出信号? 从噪声中识别出信号:对于未来或当前的机器学习从业者来说,重要的是能够从噪声中识别出信号,从而在过度炒作的新闻稿中 阅读全文
posted @ 2020-10-02 22:36 范仁义 阅读(282) 评论(0) 推荐(0) 编辑
摘要:深度学习四大经典书籍 一、总结 一句话总结: 《Deep Learning with Python》:是 Keras 作者写的书,所以全书基本围绕着 Keras 讲深度学习的各种实现,从 CNN,RNN 到 GAN 等,偏入门 《Python Machine Learning》:书籍质量很高,简单来 阅读全文
posted @ 2020-10-02 17:26 范仁义 阅读(1980) 评论(0) 推荐(0) 编辑
摘要:线性回归 逻辑回归 分类问题的区别 一、总结 一句话总结: 回归算法:线性回归是一种基本的回归算法,当给出相应的训练集后,通过线性回归来寻找合适参数θ(向量)使得Hypothesis函数的Cost function最小。 分类算法:逻辑回归是一个分类算法,逻辑回归的Hypothesis和线性回归非常 阅读全文
posted @ 2020-10-02 15:36 范仁义 阅读(1384) 评论(0) 推荐(1) 编辑
摘要:逻辑回归和线性回归区别 一、总结 一句话总结: 因变量不同:logistic回归与线性回归实际上有很多相同之处,最大的区别就在于他们的因变量不同,其他的基本都差不多,正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalizedlinear model)。 二项分布:logist 阅读全文
posted @ 2020-10-02 12:07 范仁义 阅读(875) 评论(0) 推荐(0) 编辑

侧边栏

打赏

点击右上角即可分享
微信分享提示