摘要: 第1章 引言 在本书中,将会重点讨论个性化推荐。 1.1 第一部分:基本概念 1.1.1 协同过滤推荐 这些系统的基本思想是,如果用户在过去有相同的偏好(比如他们浏览或买过相同的书),那么他们在未来也会有相似的偏好。由于选择可能感兴趣的书涉及从大量集合中过滤出最有希望的书,而且用户是在隐式地与其他人 阅读全文
posted @ 2020-04-06 14:47 程序员小应 阅读(268) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络(CNN)是一种具有局部连接、权重共享等特性的深层前馈神经网络。 卷积神经网络最早主要是用来处理图像信息。在用全连接前馈网络来处理图像时,会存在以下两个问题: (1)参数太多:随着隐藏层神经元数量的增多,参数的规模也会急剧增加。这会导致整个神经网络的训练效率非常低,也很容易出现过拟合。 阅读全文
posted @ 2020-02-20 22:05 程序员小应 阅读(1598) 评论(0) 推荐(0) 编辑
摘要: 人工神经网络是指一系列受生物学和神经科学启发的数学模型。在本章中,主要关注采用误差反向传播来进行学习的神经网络,即作为一种机器学习模型的神经网络。从机器学习的角度来看,神经网络一般可以看作是一个非线性模型,其基本组成单元为具有非线性激活函数的神经元,通过大量神经元之间的连接,使得神经网络成为一种高度 阅读全文
posted @ 2020-02-19 21:37 程序员小应 阅读(840) 评论(0) 推荐(0) 编辑
摘要: 线性模型是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型。给定一个D维样本 x = [x1,...,xD]T,其线性组合函数为 分类问题中,由于输出目标y是一些离散的标签,而f(x;w)的值域为实数,因此无法直接用f(x;w)来进行预测,需要引入一个非线性的决策函数g(.)来预 阅读全文
posted @ 2020-02-19 11:26 程序员小应 阅读(761) 评论(0) 推荐(0) 编辑
摘要: 通俗地讲,机器学习就是让计算机从数据中进行自动学习,得到某种知识(或规律)。机器学习通常指一类问题以及解决这类问题的方法,即如何从观测数据(样本)中寻找规律,并利用学习到的规律(模型)对未知或无法观测的数据进行预测。 本章先介绍机器学习的基本概念和基本要素,并较详细地描述一个简单的机器学习的例子,线 阅读全文
posted @ 2020-02-18 21:05 程序员小应 阅读(1018) 评论(0) 推荐(0) 编辑
摘要: 以下内容为书中的课后练习,地址:https://github.com/nndl/exercise 第1章的练习内容主要是熟悉基本的numpy操作 阅读全文
posted @ 2020-02-18 10:49 程序员小应 阅读(460) 评论(0) 推荐(0) 编辑
摘要: 第1章 绪论 深度学习是机器学习的一个分支,是指一类问题以及解决这类问题的方法。 首先,深度学习是一个机器学习问题,指从有限样例中通过算法总结出一般性的规律,并可以应用到新的未知数据上。 其次,深度学习采用的模型一般比较复杂,指样本的原始输入到输出目标之间的数据流经过多个线性或非线性的组件。 1.1 阅读全文
posted @ 2020-02-18 09:43 程序员小应 阅读(716) 评论(0) 推荐(0) 编辑
摘要: 13.3 快乐模拟 PAT B1050 螺旋矩阵 (25分) 本题要求将给定的 N 个正整数按非递增的顺序,填入“螺旋矩阵”。所谓“螺旋矩阵”,是指从左上角第 1 个格子开始,按顺时针螺旋方向填充。要求矩阵的规模为 m 行 n 列,满足条件:m×n 等于 N;m≥n;且 m−n 取所有可能值中的最小 阅读全文
posted @ 2020-02-12 14:39 程序员小应 阅读(356) 评论(0) 推荐(0) 编辑
摘要: 13.1 分块思想 问题:给出一个非负整数序列A,元素个数为N,在有可能随时添加或删除元素的情况下,实时查询序列元素第K大,即把序列元素从小到大排序后从左到右的第K个元素。 整体思路是先用O(√N)的时间复杂度找到第K大的元素在哪一块,然后再用O(√N)的时间复杂度在块内找到这个元素,因此单词查询的 阅读全文
posted @ 2020-02-12 08:42 程序员小应 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 11.2 最大连续子序列和 PAT A1007 Maximum Subsequence Sum (25分) Given a sequence of K integers { N​1​​, N​2​​, ..., N​K​​ }. A continuous subsequence is defined 阅读全文
posted @ 2020-02-10 23:57 程序员小应 阅读(194) 评论(0) 推荐(0) 编辑