上一页 1 2 3 4 5 6 7 8 9 ··· 38 下一页
摘要: 今日正常上课。将之前学过的深度学习有简单学习了一下。看了看之前的深度学习的代码。 阅读全文
posted @ 2021-03-05 21:02 喜欢爬的孩子 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 软件架构师是如何工作的: 首先咱们来说一下缘起,在软件行业对于什么是架构一直都有很多的争论,架构在软件发明时的N多年一亲肌已经存在了。那为什么会产生架构呢?在早起人类都是一个个体,自己进行自己的事情,但是慢慢之后进行群居,一旦多人分工配合作为生存的整体,力量就会强大的多。当分工产生之后,实际上每个人 阅读全文
posted @ 2021-03-05 12:29 喜欢爬的孩子 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 以淘宝“双十一”为场景对淘宝网进行系统质量分析 1.可用性 场景设想:双十一狂欢节时很多用户同时访问淘宝网,导致系统崩溃 刺激源:用户 刺激:很多用户同时进行登录、查询、购买操作 环境:用户正常操作 制品:系统服务器 响应:系统响应人数过多,系统检测到事件,记录故障,通知系统 响应度量:一定时间后, 阅读全文
posted @ 2021-03-04 19:08 喜欢爬的孩子 阅读(94) 评论(0) 推荐(0) 编辑
摘要: 主要做的是以淘宝网为例,简单描述了六个属性的应用场景。参考了一些网上的资料。 回忆了一下自己之前学习的深度学习,感觉记忆不是很深。预计重来一遍,加深记忆。 阅读全文
posted @ 2021-03-04 12:31 喜欢爬的孩子 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 正常上课之后了解了深度学习中容易出现的问题。写完了上课的时候老师布置的作业。 检查了一下自己flask项目的运行情况。 阅读全文
posted @ 2021-03-03 22:42 喜欢爬的孩子 阅读(25) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf import glob import pandas as pd import numpy as np # 1)读取图片数据filename -> 标签值 def read_picture(): tf.compat.v1.disable_eager_ex 阅读全文
posted @ 2021-03-03 08:15 喜欢爬的孩子 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 优化器总结: 机器学习中,有很多优化方法来试图寻找模型的最优解。比如神经网络中可以采取最基本的梯度下降法。 梯度下降法(Gradient Descent) 梯度下降法是最基本的一类优化器,目前主要分为三种梯度下降法:标准梯度下降法(GD, Gradient Descent),随机梯度下降法(SGD, 阅读全文
posted @ 2021-03-02 22:26 喜欢爬的孩子 阅读(138) 评论(0) 推荐(0) 编辑
摘要: 正常上网课 剩下时间: 帮同学安装了一下android studio。 画了一些流程图。 tensorflow各种优化器的比较总结 阅读全文
posted @ 2021-03-02 22:25 喜欢爬的孩子 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 网络结构: 网络设计: 代码: import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data tf.compat.v1.disable_eager_execution() # 1、利用数据,在训练 阅读全文
posted @ 2021-03-01 07:52 喜欢爬的孩子 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 对比: 历史: 比赛错误率: 结构: 卷积神经网络三个结构: 卷积层: 卷积核的四大要素: 卷积如何计算大小: 输出大小计算公式: 卷积层api 小结: 激活函数: 为神魔采用新的激活函数: 激活函数api: 池化层: 利用图像上像素点之间的联系 池化层的API: 计算例子: 阅读全文
posted @ 2021-02-28 13:21 喜欢爬的孩子 阅读(58) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 38 下一页