摘要: 2.3 神经网络的用具:张量操作 很多和任何电脑程序一样能最终减少到一个在二进制输入中二进制操作的小集合(AND,OR,NOR等等),所有通过深度神经网络学习的转化可以被减少到一把应用在张量数字数据上的张量操作。例如,它可能张量相加,张量相乘等等。 在我们最初的例子中,我们通过堆叠Dense层在彼此 阅读全文
posted @ 2019-05-16 23:16 z_zheng 阅读(125) 评论(0) 推荐(0) 编辑
摘要: 当考虑到这样一批张量时,第一个轴叫做组的轴或者组的维度。在你学习Keras或者其他深度学习库的时候,这将是一个你经常遇到的术语。 2.2.8 数据张量的真实世界的例子 让我们用一些与你之后会遇到的例子相似的例子来使得数据张量更加的具体。你将熟知的那些数据几乎总是属于以下几类: 向量数据——2D张量模 阅读全文
posted @ 2019-05-14 19:27 z_zheng 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 为了让它更具体一些,让我们回去看看MNIST例子的过程。首先,我们下载了MNIST的数据包; (略) 下一步,我们展示了张量train_images的轴的数量,ndim属性: (略) 这是它的shape: (略) 并且这是它的数据类型,dtype属性: (略) 所以我们有了一个8位int的3D张量。 阅读全文
posted @ 2019-05-13 15:44 z_zheng 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 2.2 神经网络的数据表示 在先前的例子中,我们从存储在多维Numpy数组中的数据开始,这些数据也称作张量。一般而言,所有现在的机器学习系统使用张量作为它们基础数据结构。张量是这个领域的基础——它们如此基础,因此谷歌的TensorFlow以此命名。所以什么是张量? 在它的核心概念中,张量是数据的一个 阅读全文
posted @ 2019-05-09 11:19 z_zheng 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 为了让网络做好准备去训练,我们需要再选出三个东西作为编写的步骤: 失分方程——网络如何来衡量它在训练数据上的表现,以及它如何因此来使自己驱使向正确的方向。 优化——网络根据它看到的数据以及失分功能来更新自己的机制 在训练和测试时的用以监督的度量标准——这里,我们仅专注精度(正确分类了的那部分图片) 阅读全文
posted @ 2019-05-07 23:01 z_zheng 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 2.1 神经网络的第一次接触 让我们看一下神经网络的实例,这个神经网络使用了python库Keras来学习识别手写数字。除非你已经有了关于Keras或者相似的库的经验,你不会明白立刻明白第一个例子的所有东西。你可能还没有装Keras;这没关系,在下一章里,我们会回顾这个例子中的每一个元素,并详细的解 阅读全文
posted @ 2019-05-06 15:27 z_zheng 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 理解深度学习所要求熟悉的很多简单的数学概念:张量,张量操作,分化,梯度下降等等。在本章中,我们的目标将是建立你对这些概念的直接感觉,而不是过于专业化的东西。特别是,我们会避开使用对于没有数学基础的人来说很反感并且也并非解释必须的数学符号。 为了加入一些内容给张量和梯度下降,我们在章节的一开始使用一个 阅读全文
posted @ 2019-05-05 21:09 z_zheng 阅读(91) 评论(0) 推荐(0) 编辑