导航

12 2018 档案

摘要:散度(divergence)可用于表征空间各点矢量场发散的强弱程度,是矢量到标量的映射。 假设有矢量 阅读全文

posted @ 2018-12-25 11:19 wzd321 阅读(583) 评论(0) 推荐(0)

摘要:参考:https://mp.weixin.qq.com/s/p10_OVVmlcc1dGHNsYMQwA 在线学习只是一个机器学习的范式(paradigm),并不局限于特定的问题,模型或者算法。 架构 如图1所示,流式训练数据生成的环节还会继续保留,原有的流式训练数据生成拓扑后面会直接接一个流式模型 阅读全文

posted @ 2018-12-18 19:50 wzd321 阅读(549) 评论(0) 推荐(0)

摘要:一.正则表达式概念 1.定义 正则表达式,又称规则表达式。(英语:Regular Expression,在代码中常简写为regex、regexp或RE),计算机科学的一个概念。正则表达式通常被用来检索、替换那些符合某个模式(规则)的文本。正则表达式(Regular Expression)是一种文本模 阅读全文

posted @ 2018-12-18 09:40 wzd321 阅读(218) 评论(0) 推荐(0)

摘要:1、CPM CPM(Cost Per Mill-impression),即每千人印象成本,依据广告播放次数来计算广告收费。广告图形或文字在计算机上显示,每1000次为一收费单位,如一则Banner广告的单价是50/CPM,5000元的广告收入就可以获得100*1000次播放机会。CPM是现阶段常用的 阅读全文

posted @ 2018-12-13 14:02 wzd321 阅读(2082) 评论(0) 推荐(0)

摘要:向量2范数是对应元素平方和:矩阵2范数是:其中是矩阵的最大特征值. 除此之外,矩阵有一个F范数(Frobenius范数)倒是跟向量的2范数比较相似,是矩阵内所有元素平方和: 矩阵的2范数是向量二范数对应的诱导范数。给定某一种向量范数 ,它所对应的矩阵范数定义为: 左边的范数是矩阵范数,而右边分子分母 阅读全文

posted @ 2018-12-12 22:25 wzd321 阅读(22832) 评论(0) 推荐(0)

摘要:Text-CNN模型作为文本分类模型,通过验证实验以及业界的共识,在文本分类任务中,CNN模型已经能够取到比较好的结果,虽然在某些数据集上效果可能会比RNN稍差一点,但是CNN模型训练的效率更高。所以,一般认为CNN模型在文本分类任务中是兼具效率与质量的理想模型。针对海量的文本多分类数据,也可以尝试 阅读全文

posted @ 2018-12-12 16:48 wzd321 阅读(633) 评论(0) 推荐(0)

摘要:Precision定义为预测正确的真正样本占所有被预测为正样本的比例,Recall定义为预测正确的真正样本占所有真正样本的比例,而F1值定义为Precision和Recall的调和平均值: 可以看到F1值会更接近P和R中较小的值,我们也可以自己设置Precision和Recall的重要性: >1的时 阅读全文

posted @ 2018-12-12 14:48 wzd321 阅读(155) 评论(0) 推荐(0)

摘要:转载:https://blog.csdn.net/kwame211/article/details/80364079 假设我们提供了这样的数据样本(样本值取自于y=3*x1+4*x2):x1 x2 y1 4 192 5 265 1 194 2 29x1和x2是特征,y是预测目标,我们需要以一条直线来 阅读全文

posted @ 2018-12-11 22:33 wzd321 阅读(571) 评论(0) 推荐(0)

摘要: 阅读全文

posted @ 2018-12-11 21:14 wzd321 阅读(154) 评论(0) 推荐(0)

摘要:什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(x)。模型内部有些参数,是用来计算测试集中目标值Y的真实值和预测值的偏差程度的,基于这些参数,就形成了损失函数E(x)。比如说,权重(W)和偏差(b)就是这样的内部参数,一般用于计算输出值,在训练神经网络模型时起到 阅读全文

posted @ 2018-12-11 19:50 wzd321 阅读(424) 评论(0) 推荐(0)

摘要:转载: https://www.jianshu.com/p/dcec3f07d3b5 https://blog.csdn.net/dream_catcher_10/article/details/48522339 重要:https://blog.csdn.net/roslei/article/det 阅读全文

posted @ 2018-12-10 16:13 wzd321 阅读(2478) 评论(1) 推荐(1)

摘要:训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度。当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量。 通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作。当我们拿到一个词向量 阅读全文

posted @ 2018-12-10 11:04 wzd321 阅读(723) 评论(0) 推荐(0)

摘要:假设样例按照到来的先后顺序依次定义为。为样本特征,为类别标签。任务是到来一个样例,给出其类别结果的预测值,之后我们会看到真实值,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。在在线学习中,我们主要关 阅读全文

posted @ 2018-12-10 09:08 wzd321 阅读(334) 评论(0) 推荐(0)

摘要:级联森林(Cascade Forest) 级联森林结构的图示。级联的每个级别包括两个随机森林(蓝色字体标出)和两个完全随机树木森林(黑色)。 假设有三个类要预测,因此,每个森林将输出三维类向量,然后将其连接以重新表示原始输入。注意,要将前一级的特征和这一级的特征连接在一起——在最后会有一个例子,到时 阅读全文

posted @ 2018-12-09 21:48 wzd321 阅读(2711) 评论(1) 推荐(0)

摘要:ID3,C4.5决策树的生成: 输入:训练集D,特征集A,阈值eps, 输出:决策树T CART决策树的生成: 这里只简单介绍下CART与ID3和C4.5的区别 阅读全文

posted @ 2018-12-09 20:00 wzd321 阅读(204) 评论(0) 推荐(0)

摘要:转载:http://www.cnblogs.com/liuwu265/p/4690486.html Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。 1、Baggin 阅读全文

posted @ 2018-12-09 16:32 wzd321 阅读(162) 评论(0) 推荐(0)

摘要: 阅读全文

posted @ 2018-12-06 23:01 wzd321 阅读(199) 评论(0) 推荐(0)

摘要:转载:https://www.toutiao.com/i6631437584914448900/ 用例1 :(市场营销) 假设一家专业公司有100万客户进行广告宣传。假设10%的客户,即10万人,会响应并购买新产品。公司可以选择向所有的客户营销,但这并不是营销资金的最佳使用。最好针对那些更有可能对活 阅读全文

posted @ 2018-12-06 15:44 wzd321 阅读(608) 评论(0) 推荐(1)

摘要:对偶上升法 增广拉格朗日乘子法 ADMM 交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)是一种解决可分解凸优化问题的简单方法,尤其在解决大规模问题上卓有成效,利用ADMM算法可以将原问题的目标函数等价的分解成若干个可求解的子问题,然 阅读全文

posted @ 2018-12-06 11:50 wzd321 阅读(4223) 评论(0) 推荐(0)

摘要:转载:https://blog.csdn.net/u014038273/article/details/77989221 TensorFlow程序读取数据一共有四种方法(一般针对图像): 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。 从文件读 阅读全文

posted @ 2018-12-05 21:52 wzd321 阅读(181) 评论(0) 推荐(0)

摘要:tf.Session(),tf.InteractivesSession(),tf.train.Supervisor().managed_session() 用法的区别: tf.Session() 构造阶段完成后, 才能启动图. 启动图的第一步是创建一个 Session 对象, 如果无任何创建参数, 阅读全文

posted @ 2018-12-05 20:49 wzd321 阅读(716) 评论(0) 推荐(0)

摘要:参数说明: params: 表示完整的嵌入张量,或者除了第一维度之外具有相同形状的P个张量的列表,表示经分割的嵌入张量。 ids: 一个类型为int32或int64的Tensor,包含要在params中查找的id。每个元素将代表要在params中取的每个元素的第0维的逻辑index,这个逻辑inde 阅读全文

posted @ 2018-12-05 20:27 wzd321 阅读(605) 评论(0) 推荐(0)

摘要:tf.nn.dynamic_rnn的作用: 对于单个 RNNCell ,使用call 函数进行运算时,只在序列时间上前进了一步 ,如使用 x1、 ho 得到此h1,通过 x2 、h1 得到 h2 等 。 如果序列长度为n,要调用n次call函数,比较麻烦。对此提供了一个tf.nn.dynamic_m 阅读全文

posted @ 2018-12-05 16:59 wzd321 阅读(4373) 评论(0) 推荐(0)

摘要:转载:https://blog.csdn.net/jiangpeng59/article/details/77646186 核心参数 units: 输出维度 input_dim: 输入维度,当使用该层为模型首层时,应指定该值(或等价的指定input_shape) return_sequences: 阅读全文

posted @ 2018-12-05 15:36 wzd321 阅读(12818) 评论(0) 推荐(1)

摘要:承认客观世界中有这样一种现象,其未来由现在决定的程度,使得我们关于过去的知识丝毫不影响这种决定性。这种在已知“现在”的条件下,“未来”与“过去”彼此独立的特性就被称为马尔科夫性,具有这种性质的随机过程就叫做马尔科夫过程,其最原始的模型就是马尔科夫链。这即是对荷兰数学家惠更斯提出的无后效原理的概率推广 阅读全文

posted @ 2018-12-04 23:47 wzd321 阅读(1133) 评论(0) 推荐(0)

摘要:图像基本知识: 通常情况下,我们可以将一副Matplotlib图像分成三层结构: 1.第一层是底层的容器层,主要包括Canvas、Figure、Axes; 2.第二层是辅助显示层,主要包括Axis、Spines、Tick、Grid、Legend、Title等,该层可通过set_axis_off()或 阅读全文

posted @ 2018-12-04 23:13 wzd321 阅读(1899) 评论(0) 推荐(1)

摘要:首先声明两者所要实现的功能是一致的(将多维数组降为一维),两者的区别在于返回拷贝(copy)还是返回视图(view),numpy.flatten()返回一份拷贝,对拷贝所做的修改不会影响(reflects)原始矩阵,而numpy.ravel()返回的是视图(view,也颇有几分C/C++引用refe 阅读全文

posted @ 2018-12-04 22:46 wzd321 阅读(186) 评论(0) 推荐(0)

摘要:将字符串str当成有效的表达式来求值并返回计算结果。它要执行的python代码只能是单个运算表达式(不支持任意形式的赋值操作),而不能是复杂的代码逻辑。 eval(expression, globals=None, locals=None) 参数说明: expression:必选参数,可以是字符串, 阅读全文

posted @ 2018-12-04 22:40 wzd321 阅读(149) 评论(0) 推荐(0)

摘要:tf.while_loop 可以这样理解: 即loop参数先传入cond 判断条件是否成立,成立之后,把 loop参数传入body 执行操作, 然后返回 操作后的 loop 参数,即loop参数已被更新,再把更新后的参数传入cond, 依次循环,直到不满足条件。 我们来看这样一个场景如何在 tens 阅读全文

posted @ 2018-12-04 21:08 wzd321 阅读(492) 评论(0) 推荐(0)

摘要:a = tf.Variable(0.0,dtype=tf.float32) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print(sess.run(a)) a = tf.assign(a,10) print(sess.run(a)) a = tf.assig... 阅读全文

posted @ 2018-12-04 20:45 wzd321 阅读(807) 评论(0) 推荐(0)

摘要:假设nce_loss之前的输入数据是K维的,一共有N个类 weight.shape = (N, K) bias.shape = (N) inputs.shape = (batch_size, K) labels.shape = (batch_size, num_true) num_true :实际的 阅读全文

posted @ 2018-12-04 20:26 wzd321 阅读(398) 评论(0) 推荐(0)

摘要:tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value: 需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, 阅读全文

posted @ 2018-12-04 20:20 wzd321 阅读(141) 评论(0) 推荐(0)

摘要:tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None) 此函数是为了防止在训练中过拟合的操作,将训练输出按一定规则进行变换. 参数: x:输入 keep_prob:保留比例,取值 (0,1] 。每一个参数都将按这个比例随 阅读全文

posted @ 2018-12-04 20:12 wzd321 阅读(202) 评论(0) 推荐(0)

摘要:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 结果返回一个Tensor,这个输出,就是我们常说的feature map input: 指需要做卷积的输入图像,它要求是一个Tensor,具 阅读全文

posted @ 2018-12-04 20:08 wzd321 阅读(306) 评论(0) 推荐(0)