2019年12月25日
摘要: pass 阅读全文
posted @ 2019-12-25 15:44 Luaser 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 1、call函数 call()的本质是将一个类变成一个函数(使这个类的实例可以像函数一样调用) 1 class A(object): 2 def __init__(self, name, age): 3 self.name = name 4 self.age = age 5 6 def __call 阅读全文
posted @ 2019-12-25 15:42 Luaser 阅读(669) 评论(0) 推荐(0) 编辑
摘要: keras.Sequential 容器 keras.layers.Layers keras.Model 1、keras.Sequential 容器 (1)如果不使用容器,就需要写很多行代码,而且需要关注每一个layers的参数,容器很方便的就能创建一个网络 1 model = Sequential( 阅读全文
posted @ 2019-12-25 15:41 Luaser 阅读(453) 评论(0) 推荐(0) 编辑
摘要: (一) Keras.Metrics metrics 新建metrics update_state 在metrics列表中添加数据(更新数据),[loss1, loss2, loss3......] result().numpy() 在需要使用的时候得到结果 reset_states 清除状态 (二) 阅读全文
posted @ 2019-12-25 15:38 Luaser 阅读(541) 评论(0) 推荐(0) 编辑
摘要: pass 阅读全文
posted @ 2019-12-25 15:37 Luaser 阅读(195) 评论(0) 推荐(0) 编辑
摘要: pass 阅读全文
posted @ 2019-12-25 15:36 Luaser 阅读(158) 评论(0) 推荐(0) 编辑
摘要: pass 阅读全文
posted @ 2019-12-25 15:34 Luaser 阅读(95) 评论(0) 推荐(0) 编辑
摘要: 输出范围 y∈ Rd relu,yi∈[0,1],i = 0,1,2.....,yd - 1 softmax,yi∈[0,1],Σi=0 yi = 1,i = 0,1,2.....,yd - 1 tanh,yi∈[-1,1],i = 0,1,2.....,yd - 1 误差计算 MSE,Cross 阅读全文
posted @ 2019-12-25 15:33 Luaser 阅读(339) 评论(0) 推荐(0) 编辑
摘要: out = f(X@W + b) 线性转换 out = relu(X@W + b) 非线性转换 1、X@W + b h = relu(X@W + b),最后得到的值h00和h01是prob,比较prob的大小将样本归分为该类别。relu函数是将小于0的数等于0,大于0的数不变。通过全连接层网络逐渐实 阅读全文
posted @ 2019-12-25 15:32 Luaser 阅读(6387) 评论(0) 推荐(0) 编辑