摘要: 支持向量机(SupportVectorMachine,SVM),集成了最大间隔超平面、Mercer核、凸二次规划、稀疏解和松弛变量等多项技术。核表示方式将数据映射到高位空间来增加线性学习器的计算能力。训练样本不会独立出现,而总是以成对样本的内积形式出现。通过选择恰当的核函数来代替内积,可以隐式地将训练数据非线性映射到高维空间,而不增加可调参数的个数,当然前提是核函数能够计算对应着两个输入特征向量的内积。需要学习的目标函数的复杂度取决于它的表示方式,学习任务的难度也会随之变化。在理想情况下,应该选择与特定的学习问题匹配的表示。将数据简单映射到另一个空间有时能够很好地简化任务。一般而言,描述数据的 阅读全文
posted @ 2014-02-18 17:07 黎嫣 阅读(731) 评论(0) 推荐(0) 编辑
摘要: 神经网络基本模型:1.前向神经网络:无圈的有向图N=(V,E,W),其中,V为神经元集合,E为连结权值集合,W为每一连结赋予一实值的权重。神经元集V可以被分成无接受域的输入结点集V1,无投射域的输出结点集V0和既有接受域又有投射域的隐结点集VH。一般的前向神经网络包括一个输入层、一个输出层和若干隐单元。隐单元可分层也可以不分层。若分层,则成为多层前向神经网络。网络的输入、输出神经元的激励函数一般取线性函数,而隐单元则为非线性函数。前向神经网络的输入单元从外部环境中接受信号,经处理将输出信号加权后传给其投射域中的神经元,网络中的隐含单元或输出单元从其接受域中接受净输入,然后向它的投射域发送输出信 阅读全文
posted @ 2014-02-18 14:34 黎嫣 阅读(2031) 评论(0) 推荐(0) 编辑