azure011328

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
统计
 

今天去配了一把车钥匙 我才发现原来钥匙这么好复刻 

下午继续完成实验作业

完成了牛顿法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
% 使用符号变量定义目标函数、梯度和Hessian矩阵
syms x1 x2 x3 x4;
funf_sym = (x1 + 10*x2)^2 + 5*(x3 - x4)^2 + (x2 - 2*x3)^4 + 10*(x1 - x4)^4;
gradf_sym = gradient(funf_sym, [x1, x2, x3, x4]);
hessf_sym = hessian(funf_sym, [x1, x2, x3, x4]);
 
% 将符号表达式转换为函数句柄,明确设置为接受列向量
funf = matlabFunction(funf_sym, 'Vars', {[x1; x2; x3; x4]});
gradf = matlabFunction(gradf_sym, 'Vars', {[x1; x2; x3; x4]});
hessf = matlabFunction(hessf_sym, 'Vars', {[x1; x2; x3; x4]});
 
% 初始化初始点和精度
x0 = [2; 2; 2; 2]; % 初始点
epsilon = 1e-6; % 收敛阈值
 
 
% 调用牛顿法
[k, x_opt, f_opt] = dampnm(funf, gradf, hessf, x0, epsilon);
 
% 输出结果
fprintf('迭代次数: %d\n极值点 x: [%f, %f, %f, %f]\n极值点的函数值: %f\n', ...
        k, x_opt(1), x_opt(2), x_opt(3), x_opt(4), f_opt);

  

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
function [k, x, val] = dampnm(fun, gfun, Hess, x0, epsilon)
% 输入:% fun - 被优化的函数;% gfun - 目标函数的梯度;% Hess - 目标函数的Hessian矩阵;% x0 - 初始点;% epsilon - 收敛阈值;% 输出:% k - 迭代次数;% x - 极值点;% val - 极值点的函数值;
k = 1; % 初始化迭代计数器
gk = feval(gfun, x0); % 计算初始梯度和Hessian矩阵
Gk = feval(Hess, x0);
while norm(gk) > epsilon
    dk = -Gk\gk;               % 求解线性方程组以找到搜索方向
    x0 = x0 + dk;               % 更新点
    gk = feval(gfun, x0);    % 计算新点的梯度和Hessian矩阵
    Gk = feval(Hess, x0);
      
     k = k + 1;    % 迭代计数器递增
     if k > 10000   % 如果迭代次数太多,退出循环
        warning('The method did not converge after 10000 iterations.');
        break;
    end
end
x = x0; % 输出最终迭代结果
val = feval(fun, x0);
end

  

posted on   淮竹i  阅读(4)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
 
点击右上角即可分享
微信分享提示