上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: 1、读取方法有按行(单行,多行连续,多行不连续),按列(单列,多列连续,多列不连续);部分不连续行不连续列;按位置(坐标),按字符(索引);按块(list);函数有 df.iloc(), df.loc(), df.iat(), df.at(), df.ix()。 2、转换为DF,赋值columns, 阅读全文
posted @ 2020-11-23 15:56 Sunshine168 阅读(25871) 评论(0) 推荐(1) 编辑
摘要: SQL语句向表中插入多个值的话,如果如下语句 INSERT INTO 某表 VALUES(各个值),VALUES(各个值),.....; 这样会报错的,因为oracle是不支持这种写法的,如果多个INSERT INTO VALUEES(各个值);这样以“;”隔开一同执行也是不行的,oracle也是不 阅读全文
posted @ 2020-11-19 17:35 Sunshine168 阅读(4962) 评论(0) 推荐(0) 编辑
摘要: 准备1、先说一下什么是logit,logit函数定义为: 是一种将取值范围在[0,1]内的概率映射到实数域[-inf,inf]的函数,如果p=0.5,函数值为0;p<0.5,函数值为负;p>0.5,函数值为正。 相对地,softmax和sigmoid则都是将[-inf,inf]映射到[0,1]的函数 阅读全文
posted @ 2020-11-13 17:24 Sunshine168 阅读(523) 评论(0) 推荐(0) 编辑
摘要: 在Tensorflow中,所有操作对象都包装到相应的Session中的,所以想要使用不同的模型就需要将这些模型加载到不同的Session中并在使用的时候申明是哪个Session,从而避免由于Session和想使用的模型不匹配导致的错误。而使用多个graph,就需要为每个graph使用不同的Sessi 阅读全文
posted @ 2020-11-05 11:02 Sunshine168 阅读(476) 评论(0) 推荐(0) 编辑
摘要: 倾向于使用准确率,是因为熟悉它的定义,而不是因为它是评估模型的最佳工具! 精度(查准率)和召回率(查全率)等指标对衡量机器学习的模型性能是非常基本的,特别是在不平衡分布数据集的案例中,在周志华教授的「西瓜书」中就特别详细地介绍了这些概念。 什么是分布不平衡的数据集? 倘若某人声称创建了一个能够识别登 阅读全文
posted @ 2020-10-31 10:05 Sunshine168 阅读(1207) 评论(0) 推荐(0) 编辑
摘要: 退化学习率(Decaying the learning rate) 操作描述 tf.train.exponential_decay(learning_rate, global_step,decay_steps, decay_rate, staircase=False, name=None) 对学习率 阅读全文
posted @ 2020-10-17 00:10 Sunshine168 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l 阅读全文
posted @ 2020-10-15 16:44 Sunshine168 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 欧氏距离(Euclidean distance)也称欧几里得度量、欧几里得度量,是一个通常采用的距离定义,它是在m维空间中两个点之间的真实距离。在二维和三维空间中的欧氏距离的就是两点之间的距离。 Lp space p范数:║x║p=(|x1|^p+|x2|^p+…+|xn|^p)^{1/p} 每个值 阅读全文
posted @ 2020-10-14 18:40 Sunshine168 阅读(939) 评论(0) 推荐(0) 编辑
摘要: 以下这些函数可以用于解决梯度消失或梯度爆炸问题上。 tensorflow 中的clip_by_norm optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(c 阅读全文
posted @ 2020-10-14 11:42 Sunshine168 阅读(511) 评论(0) 推荐(0) 编辑
摘要: I optimizer.minimize(loss, var_list) 我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer。这个方法会自动根据loss计算对应variable的导数。示例如下: loss = ... opt = tf.t 阅读全文
posted @ 2020-10-14 11:13 Sunshine168 阅读(257) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页