上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 31 下一页
摘要: 三、误差逆传播算法(BP) 3、固定增量与批量 固定增量: 逐样本,计算误差,更新权重 批量:所有训练数据,计算平均误差,更新权重。 4、权值的初始化 权值的初始值决定了搜索的七点,其值不能太大,如果权值太大,sigmoid函数的输入很大,输出接近0或1,这时梯度很小,学习速度很慢。如果权值很大(靠 阅读全文
posted @ 2020-02-15 14:15 泰初 阅读(1127) 评论(0) 推荐(0) 编辑
摘要: 三、误差逆传播算法(BP) 1、BP算法 多层网络的学习能力比单层感知机强得多。欲训练多层网络,简单感知学习规则显然不够了,需要更强大的学习算法。误差逆传播(errorBackPropagation,简称BP)算法就是其中最杰出的代表。BP算法是迄今最成功的神经网络学习算法。 BP网络:用BP算法训 阅读全文
posted @ 2020-02-15 12:56 泰初 阅读(1249) 评论(0) 推荐(0) 编辑
摘要: 二、感知机与多层网络 3、感知机与逻辑操作 (1)线性模型 感知机只有输出层神经元进行激活函数处理,即只拥有一层功能神经元,其学习能力十分有限。有些逻辑运算(与、或、非问题)可以看成线性可分任务。若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛而求得适当的权向量 阅读全文
posted @ 2020-02-15 11:05 泰初 阅读(1537) 评论(0) 推荐(0) 编辑
摘要: 二、感知机与多层网络 1、感知机 感知机由两层神经元组成,输入层接收外界的输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”。结构如下图: 感知机能容易地实现逻辑与、或、非操作。 神经网络的基本单元为神经元,神经元接受来自其他神经元的信号,经过一个线性变换,与阈值比较,通过非线性变换 阅读全文
posted @ 2020-02-15 11:01 泰初 阅读(1666) 评论(0) 推荐(0) 编辑
摘要: 一、神经元模型 1、神经网络定义 神经网络:神经网络是由适应性的简单单元组成的广泛并行互连的网络,他的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。 神经网络是目前广泛使用的一种机器学习方法,机器学习中提到的神经网络指的是“神经网络学习”,或者说,是机器学习与神经网络这两个学科领域的交叉部 阅读全文
posted @ 2020-02-08 14:39 泰初 阅读(2363) 评论(0) 推荐(0) 编辑
摘要: 八、决策树构造 from sklearn import tree #决策树生成 clf = tree.DecisionTreeClassifier(criterion='entropy') clf = tree.DecisionTreeClassifier(criterion='gini') clf 阅读全文
posted @ 2020-02-05 13:50 泰初 阅读(790) 评论(0) 推荐(0) 编辑
摘要: 七、多变量决策树 1、从“树”到“规则” 一棵决策树对应于一个“规则集”,每个从根结点到叶结点的分支路径对应于一条规则。 举例: 好处: (1)改善可理解性 (2)进一步提升泛化能力( 由于转化过程中通常会进行前件合并、泛化等操作,C4.5Rule 的泛化能力通常优于 C4.5决策树) 2、轴平行划 阅读全文
posted @ 2020-02-05 13:45 泰初 阅读(2613) 评论(0) 推荐(0) 编辑
摘要: 五、剪枝处理 过拟合:在决策树学习过程中,为了尽可能正确分类训练样本,结点划分过程将不断重复,有时会造成决策树分支过多,这时就可能会因训练样本学得太好,以致于把训练集自身的一些特点当作所有数据都具有的一般性质导致过拟合。 剪枝:对付过拟合的一种重要手段,通过主动去掉一些分支来降低过拟合的风险。 基本 阅读全文
posted @ 2020-02-04 20:41 泰初 阅读(8735) 评论(0) 推荐(3) 编辑
摘要: 六、连续与缺失值 1、连续值处理 到目前为止我们仅讨论了基于离散属性来生成决策树,现实学习任务中常常遇到连续属性,有必要讨论如何在决策树学习中使用连续属性。我们将相邻的两个属性值的平均值作为候选点。 基本思路:连续属性离散化。 常见做法:二分法(这正是C4.5决策树算法中采用的机制)。 对于连续属性 阅读全文
posted @ 2020-02-04 19:30 泰初 阅读(2281) 评论(0) 推荐(0) 编辑
摘要: 四、划分选择 1、属性划分选择 构造决策树的关键是如何选择最优划分属性。一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的“纯度”越来越高。 常用属性划分的准则: (1)ID3:信息增益 (2)C4.5:增益率 (3)CART:基尼指数 直观上,如果一个 阅读全文
posted @ 2020-02-03 18:23 泰初 阅读(3998) 评论(0) 推荐(0) 编辑
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 31 下一页