Lei's Blog

关注机器学习、信息检索、数据挖掘和推荐系统等研究领域

  :: 首页 :: 博问 :: 闪存 :: 新随笔 :: :: 订阅 订阅 :: 管理 ::

首先是给出costFunction, 然后设置参数的优化选项,以及参数的初始值,最后是调用fminunc函数

代码如下:

function [jVal, gradient]=costFunction(theta)
  jVal=(theta(1)-5)^2+(theta(2)-5)^2;
  gradient=zeros(2,1);
  gradient(1)=2*(theta(1)-5);
  gradient(2)=2*(theta(2)-5);
end

 

options=optimset('GradObj','on','MaxIter',100);
initialTheta=zeros(2,1)
[optTheta, functionVal, exitFlag]=fminunc(@costFunction, initialTheta, options)

posted on 2012-09-01 10:44  Lei-Blog  阅读(9990)  评论(0编辑  收藏  举报