摘要:
{6,-3,-2,7,-15,1,2,2},连续子向量的最大和为8(从第0个开始,到第3个为止)。你会不会被他忽悠住?(子向量的长度至少是1)最优方法,时间复杂度O(n),和最大的子序列的第一个元素肯定是正数 ,因为元素有正有负,因此子序列的最大和一定大于0 def FindGreatestSumOfSubArray(self, array): maxVal=array[0] ... 阅读全文
摘要:
一、构建与遍历二叉树 基本性质 1)在二叉树的第i层上最多有2i-1 个节点 。(i>=1)2)二叉树中如果深度为k,那么最多有2k-1个节点。(k>=1)3)在完全二叉树中,具有n个节点的完全二叉树的深度为[log2n]+1,其中[log2n]是向下取整。向下取整就是小数点后面的数字无论多少,都只 阅读全文
摘要:
一、tf.transpose函数的用法 tf.transpose(input, [dimension_1, dimenaion_2,..,dimension_n]):这个函数主要适用于交换输入张量的不同维度用的,如果输入张量是二维,就相当是转置。dimension_n是整数,如果张量是三维,就是用0 阅读全文
摘要:
sparse_softmax_cross_entropy_with_logits与softmax_cross_entropy_with_logits [ 0.71559191][ 0.71559191] 可以看出,softmax_cross_entropy_with_logits第二个参数传入的参数 阅读全文
摘要:
import tensorflow as tf with tf.variable_scope('v_scope',reuse=True) as scope1: Weights1 = tf.get_variable('Weights', shape=[2,3]) bias1 = tf.get_vari 阅读全文
摘要:
一、产生X样本 x_train = np.random.random((5, 3)) 随机产生一个5行3列的样本矩阵,也就是5个维度为3的训练样本。 二、产生Y样本 y_train = np.random.randint(10, size=(20, 1)) 产生一个20行1列的Y样本,值分布为10个 阅读全文
摘要:
一、Sigmoid函数 1)表达式 2)函数曲线 3)函数缺点 梯度饱和问题。先看一下反向传播计算过程: 反向求导: 而其中: 所以,由上述反向传播公式可以看出,当神经元数值无线接近1或者0的时候,在反向传播计算过程中,梯度也几乎为0,就导致模型参数几乎不更新了,对模型的学习贡献也几乎为零。也称为参 阅读全文
摘要:
一、梯度下降、随机梯度下降、批量梯度下降 梯度下降:梯度下降中,对于θ 的更新,所有的样本都有贡献,也就是参与调整θ 。其计算得到的是一个标准梯度。因而理论上来说一次更新的幅度是比较大的。如果样本不多的情况下,当然是这样收敛的速度会更快。 随机梯度下降:随机梯度下降法,随机用样本中的一个例子来近似总 阅读全文
摘要:
说到神经网络,大家看到这个图应该不陌生: 这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,我们现在手里有一堆数据{x1,x2,x3,...,xn},输出也是一堆数据{y1,y2,y3,...,yn},现在要他们在隐含层做某种变换,让你把 阅读全文
摘要:
关于数据库查询工作,例如有如下数据库表 要想统计所有90后的程序员该怎么做呢?用一条求交集的SQL语句即可: Select count(distinct Name) as 用户数 from table whare age = '90后' and Occupation = '程序员' ; 要想统计所有 阅读全文