1.每日总结12.每日总结23.每日总结34.每日总结45.每日总结56.每日总结67.每日总结78.每日总结89.每日总结910.每日总结1011.每日总结1112.每日总结1213.每日总结1314.每日总结1415.每日总结1516.每日总结1617.每日总结1718.每日总结1819.每日总结1920.每日总结2021.每日总结2122.每日总结2223.每日总结2324.每日总结2425.每日总结2526.每日总结2627.每日总结2728.每日总结2829.每日总结2930.每日总结3031.每日总结3232.每日总结3133.每日总结3334.每日总结3435.每日总结3536.每日总结4137.每日总结4238.每日总结4439.每日总结4640.每日总结4741.构建之法读后感0242.构建之法读后感0343.梦断代码读后感0144.梦断代码读后感0245.梦断代码读后感0346.构建之法读后感0147.每日总结3948.每日总结4049.每日总结4550.每日总结4851.每日总结4952.每日总结5053.每日总结5154.每日总结5255.每日总结5356.每日总结5457.每日总结5558.每日总结5659.每日总结57
60.每日总结58
61.每日总结6062.每日总结6163.每日总结64(事后诸葛亮会议)64.每日总结63(关于课程个人总结)65.第一阶段冲刺个人分工66.每日总结62今天学习了共轭梯度法 代码如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 | function [x_min, f_min] = FR_conjugate_gradient() % 初始点 x = [2; 2; 2; 2]; % 初始梯度 g = gradient (x); % FR共轭方向 d = -g; % 终止准则参数 epsilon = 1e-6; % Armijo条件参数 rho = 0.5; c = 0.1; % 最大迭代次数 max_iter = 1000; % FR共轭梯度法迭代 for iter = 1:max_iter % 非精确搜索 alpha = 1; while f(x + alpha * d) > f(x) + c * alpha * g' * d alpha = rho * alpha ; end % 更新x x = x + alpha * d; % 更新梯度 g_old = g; g = gradient (x); % 终止条件 if norm (g) < epsilon break ; end % 更新FR共轭方向 beta = (g ' * g) / (g_old' * g_old); d = -g + beta * d; end % 返回最优解和最优值 x_min = x; f_min = f(x); end % 目标函数 function val = f(x) val = (x(1) + 10*x(2))^2 + 5*(x(3) - x(4))^2 + (x(2) - 2*x(3))^4 + 10*(x(1) - x(4))^4; end % 梯度函数 function grad = gradient (x) grad = [ 2*(x(1) + 10*x(2)) + 40*(x(1) - x(4))^3; 20*(x(1) + 10*x(2)) + 4*(x(2) - 2*x(3))^3; 10*(x(3) - x(4)) - 8*(x(2) - 2*x(3))^3; -10*(x(3) - x(4)) - 40*(x(1) - x(4))^3 ]; end |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)