随笔分类 - TensorFlow
摘要:循环神经网络(Recurrent Neural Network,RNN)是一种别具一格的网络模型,其循环元节点不仅可以接上来自上层的输入数据,也可以接收自身上一次迭代的输出,基于这种特殊的结构,循环神经网络拥有了短期记忆能力,通过“记忆”保存了数据间的关联关系,所以尤为适合处理语言、文本、视频等时序相关的数据。
阅读全文
摘要:VGG的实质是AlexNet结构的增强版,它将卷积层的深度提升到了19层,并且在2014年的ImageNet大赛中的定位问题中获得了亚军(冠军是GoogLeNet,将在下一篇博客中介绍)。
阅读全文
摘要:模型训练好之后,我们就要想办法将其持久化保存下来,不然关机或者程序退出后模型就不复存在了。本文介绍两种持久化保存模型的方法。
阅读全文
摘要:Keras是一个基于Python编写的高层神经网络API,凭借用户友好性、模块化以及易扩展等有点大受好评,考虑到Keras的优良特性以及它的受欢迎程度,TensorFlow2.0中将Keras的代码吸收了进来,化身为tf.keras模块供用户使用。使用tf.keras提供的高层API,可以轻松得完成建模三部曲——模型构建、训练、评估等工作。下面我们分别来说说如何使用tf.keras完成这三部曲。
阅读全文
摘要:前面的博客中我们说过,在加载数据和预处理数据时使用tf.data.Dataset对象将极大将我们从建模前的数据清理工作中释放出来,那么,怎么将自定义的数据集加载为DataSet对象呢?这对很多新手来说都是一个难题,因为绝大多数案例教学都是以mnist数据集作为例子讲述如何将数据加载到Dataset中,而英文资料对这方面的介绍隐藏得有点深。本文就来捋一捋如何加载自定义的图片数据集实现图片分类,后续将继续介绍如何加载自定义的text、mongodb等数据。
阅读全文
摘要:TensorBoard是TensorFlow中的又一神器级工具,想用户提供了模型可视化的功能。我们都知道,在构建神经网络模型时,只要模型开始训练,很多细节对外界来说都是不可见的,参数如何变化,准确率怎么样了,loss还在减小吗,这些问题都很难弄明白。但是,TensorBoard通过结合web应用为我们提供了这一功能,它将模型训练过程的细节以图表的形式通过浏览器可视化得展现在我们眼前,通过这种方式我们可以清晰感知weight、bias、accuracy的变化,把握训练的趋势。
阅读全文
摘要:本文总结TensorFlow2.0中均方差损失函数和交叉熵损失函数。
阅读全文
摘要:激活函数是深度学习,亦或者说人工神经网络中一个十分重要的组成部分,它可以对神经元的接收信息进行非线性变换,将变换后的信息输出到下一层神经元。
阅读全文
摘要:在整个机器学习过程中,除了训练模型外,应该就属数据预处理过程消耗的精力最多,数据预处理过程需要完成的任务包括数据读取、过滤、转换等等。为了将用户从繁杂的预处理操作中解放处理,更多地将精力放在算法建模上,TensorFlow中提供了data模块,这一模块以多种方式提供了数据读取、数据处理、数据保存等功能。本文重点是data模块中的Dataset对象。
阅读全文
摘要:总结TensorFlow2.0中实现张量限幅功能的多个api,包括 maxmium()、minmium()、clip_by_value()、relu()、cli_by_norm()、clip_by_global_norm()
阅读全文
摘要:总结TensorFlow2.0中几个填充复制功能的api。
阅读全文
摘要:总结TensorFlow2.0中排序,求最大值、最小值、平均值等方法,涉及sort()、argsort()、reduce_min()、reduce_max()、redece_mean()、argmin()、argmax()等方法。
阅读全文
摘要:TensorFlow2.0张量数学运算,包括加(+)、减(-)、点乘(*)、除(/)、地板除法(//)、取余(%)、指数运算、对数运算、矩阵相乘、范数等。
阅读全文
摘要:TensorFlow2.0版本已经发布,虽然不是正式版,但预览版都发布了,正式版还会远吗?相比于1.X,2.0版的TensorFlow修改的不是一点半点,这些修改极大的弥补了1.X版本的反人类设计,提升了框架的整体易用性,绝对好评!
赶紧来学习一波吧,做最先吃螃蟹的那一批人!先从TensorFlow的基本数据结构——张量(tensor)开始。
阅读全文