摘要: 总结:二者用法一致。a=np.array([[[[10,8,3,9],[5,6,7,8]]],[[[1,2,3,4],[5,6,7,8]]],[[[1,2,3,4],[5,6,7,8]]]] )print('a=',a)print('a.shape=',a.shape)c=np.minimum(a[...,:2], a[...,2:]) # 说明在对应位置找最小值print('c=',c)pri... 阅读全文
posted @ 2019-09-19 19:51 tangjunjun 阅读(2659) 评论(0) 推荐(0) 编辑
摘要: class A(): def __init__(self,b): self.b=b # def __iter__(self): # 这个函数可以用,表示迭代标志,但也可以省略 # return self def __next__(self): if self.b<10: self.b=self.b+2 else: raise StopIteration self.d=self.b+10 retur 阅读全文
posted @ 2019-09-19 00:03 tangjunjun 阅读(5642) 评论(0) 推荐(0) 编辑
摘要: import numpy as npimport tensorflow as tfsess=tf.Session()a=np.zeros((1,2,3,4))b=np.ones((1,2,3,4))c1 = tf.concat([a, b], axis=-1) # 倒数第一维度增加,其它不变d1=sess.run(c1)print('d1=',d1)print('d1.shape=',d1.sha 阅读全文
posted @ 2019-09-18 23:12 tangjunjun 阅读(2771) 评论(0) 推荐(0) 编辑
摘要: import numpy as npa=np.ones((2,3,4))b=np.array([1,2,3])c=b<2k=np.any(c) # 是或的关系,只要有一个满足,则输出为TRUEprint('k=',k)print('a=',a)c=b<3 # 给定判定条件阈值print('c=',c 阅读全文
posted @ 2019-09-17 11:03 tangjunjun 阅读(9719) 评论(0) 推荐(0) 编辑
摘要: sess=tf.Session()a=np.array([1,2,3,5.]) # 此代码保留为浮点数a1=np.array([1,2,3,5]) # 此代码保留为整数 c=tf.reduce_mean(a)d=sess.run(c)print(a)print(d)c1=tf.reduce_mean(a1)d1=sess.run(c1)print(a1)print(d1) 总结:tf.re... 阅读全文
posted @ 2019-09-12 17:29 tangjunjun 阅读(6897) 评论(0) 推荐(0) 编辑
摘要: 总结: 机器学习中有很多损失函数可以用,如欧氏距离,sigmoid函数,softmax函数等, 然而使用交叉熵的原因在于防止梯度消失以及测出实际效果较好的原因吧(个人理解)。 其详细理解,可以参考粘贴的内容: 本文参考:https://mp.weixin.qq.com/s?__biz=MzU4NTY 阅读全文
posted @ 2019-09-12 15:36 tangjunjun 阅读(688) 评论(0) 推荐(0) 编辑
摘要: log表示以e为底数的对数函数符号。其验证代码如下: 阅读全文
posted @ 2019-09-11 14:43 tangjunjun 阅读(2480) 评论(0) 推荐(0) 编辑
摘要: softmax实际就是将输入函数带到一个方程np.power(np.e,xi)/Σnp.power(np.e,xi)中得到,其代码如下: 阅读全文
posted @ 2019-09-11 14:32 tangjunjun 阅读(2620) 评论(0) 推荐(0) 编辑
摘要: a=np.ones((4,2,2,3))print(a.shape)b=a[...,0]*a[...,2] # 这样可以降维度print(b.shape)c=a[...,0:1]*a[...,1:2] # 若0:1这里为这样就不会降维度print(c.shape) 阅读全文
posted @ 2019-09-10 23:36 tangjunjun 阅读(212) 评论(0) 推荐(0) 编辑
摘要: a=np.array([[[[1],[2],[3]],[[4],[25],[6]]],[[[27],[8],[99]],[[10],[11],[12]]],[[[13],[14],[15]],[[16],[17],[18]]],[[[14],[24],[15]],[[6],[197],[18]]]])print(a)print(a.shape)b=tf.reduce_max(a, axis=-1) 阅读全文
posted @ 2019-09-10 19:11 tangjunjun 阅读(2731) 评论(0) 推荐(0) 编辑
https://rpc.cnblogs.com/metaweblog/tangjunjun