摘要:
import numpy as npa=np.ones((2,3,4))b=np.array([1,2,3])c=b<2k=np.any(c) # 是或的关系,只要有一个满足,则输出为TRUEprint('k=',k)print('a=',a)c=b<3 # 给定判定条件阈值print('c=',c 阅读全文
摘要:
sess=tf.Session()a=np.array([1,2,3,5.]) # 此代码保留为浮点数a1=np.array([1,2,3,5]) # 此代码保留为整数 c=tf.reduce_mean(a)d=sess.run(c)print(a)print(d)c1=tf.reduce_mean(a1)d1=sess.run(c1)print(a1)print(d1) 总结:tf.re... 阅读全文
摘要:
总结: 机器学习中有很多损失函数可以用,如欧氏距离,sigmoid函数,softmax函数等, 然而使用交叉熵的原因在于防止梯度消失以及测出实际效果较好的原因吧(个人理解)。 其详细理解,可以参考粘贴的内容: 本文参考:https://mp.weixin.qq.com/s?__biz=MzU4NTY 阅读全文
摘要:
log表示以e为底数的对数函数符号。其验证代码如下: 阅读全文
摘要:
softmax实际就是将输入函数带到一个方程np.power(np.e,xi)/Σnp.power(np.e,xi)中得到,其代码如下: 阅读全文
摘要:
a=np.ones((4,2,2,3))print(a.shape)b=a[...,0]*a[...,2] # 这样可以降维度print(b.shape)c=a[...,0:1]*a[...,1:2] # 若0:1这里为这样就不会降维度print(c.shape) 阅读全文
摘要:
a=np.array([[[[1],[2],[3]],[[4],[25],[6]]],[[[27],[8],[99]],[[10],[11],[12]]],[[[13],[14],[15]],[[16],[17],[18]]],[[[14],[24],[15]],[[6],[197],[18]]]])print(a)print(a.shape)b=tf.reduce_max(a, axis=-1) 阅读全文
摘要:
# 图像平移image1='C:\\Users\\10107472\\Desktop\\myfile\\tensorflow-yolov\\read.jpg'img = cv.imread(image1,0)rows,cols = img.shapeprint('image_original=',img.shape)M = np.float32([[1,0,100],[0,1,50]]) #... 阅读全文
摘要:
y = tf.tile(tf.range(2, dtype=tf.int32)[:, tf.newaxis], [2,3]) # tf.tile(input,[a,b]) 输入数据,按照对应维度将矩阵重复a次和b次y1=tf.range(2, dtype=tf.int32)y2=tf.range(2, dtype=tf.int32)[:, tf.newaxis] # 将一维度矩阵增加一维度,列为1 阅读全文
摘要:
NMS代码说明(来自Fast-RCNN) 个人觉得NMS包含很多框,其坐标为(x1,y1,x2,y2),每个框对应了一个score,我们将按照score得分降序,并将第一个最高的score的框(我们叫做标准框)作为标准框与其它框对比,即计算出其它框与标准框的IOU值,然后设定阈值,与保留框的最大数量 阅读全文