会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
SXWisON
博客园
首页
新随笔
联系
订阅
管理
随笔 - 27
文章 - 0
评论 - 9
阅读 -
6774
12 2024 档案
机器学习:神经网络构建(下)
摘要:在上一篇文章《机器学习:神经网络构建(上)》中讨论了线性层、激活函数以及损失函数层的构建方式,本节中将进一步讨论网络构建方式,并完整的搭建一个简单的分类器网络。
阅读全文
posted @
2024-12-04 01:33
SXWisON
阅读(331)
评论(1)
推荐(2)
编辑
机器学习:神经网络构建(上)
摘要:在本篇文章中,我们采用逻辑回归作为案例,探索神经网络的构建方式。文章详细阐述了神经网络中层结构的实现过程,并提供了线性层、激活函数以及损失函数的定义(实现方法)。
阅读全文
posted @
2024-12-03 16:32
SXWisON
阅读(526)
评论(2)
推荐(1)
编辑
机器学习:逻辑回归
摘要:在前两篇文章中,我们详细探讨了如何利用采样数据来估计回归曲线。接下来,在本节中,我们将深入讨论如何处理分类问题。
阅读全文
posted @
2024-12-02 15:25
SXWisON
阅读(343)
评论(0)
推荐(4)
编辑
公告
昵称:
SXWisON
园龄:
1年3个月
粉丝:
21
关注:
3
+加关注
<
2025年2月
>
日
一
二
三
四
五
六
26
27
28
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
1
2
3
4
5
6
7
8
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
最新随笔
1.机器学习:神经网络构建(下)
2.机器学习:神经网络构建(上)
3.机器学习:逻辑回归
4.数值分析:线性方程组的直接解法(上)
5.机器学习:线性回归(下)
6.机器学习:线性回归(上)
7.C++:使自定义类支持迭代器
8.五子棋AI:实现逻辑与相关背景探讨(下)
9.五子棋AI:实现逻辑与相关背景探讨(上)
10.计算机组成原理【3】:数据的表示和运算-下
积分与排名
积分 - 7193
排名 - 146486
合集
算法与数据结构 C/C++(4)
CNN案例:手写数字(3)
C++入门(1)
Kaggle: Lumbar Spine Degenerative Classification(2)
计算机组成原理(3)
机器学习(5)
五子棋AI:遗传算法(4)
C++练习题(2)
C++实用经验分享(2)
数值分析(1)
随笔档案
2024年12月(3)
2024年11月(3)
2024年9月(7)
2024年8月(5)
2024年7月(9)
推荐排行榜
1. 机器学习:逻辑回归(4)
2. 【2】Kaggle 医学影像数据读取(3)
3. 机器学习:神经网络构建(下)(2)
4. 机器学习:线性回归(下)(2)
5. C++:使自定义类支持迭代器(2)
最新评论
1. Re:机器学习:神经网络构建(下)
期待😍
--正德di人蹦叉叉
2. Re:机器学习:神经网络构建(上)
@Li-Mee 标准的梯度下降中,偏置的更新一般是通过累加所有样本的梯度来完成的。而不是平均梯度。...
--SXWisON
3. Re:机器学习:神经网络构建方式
在神经网络的线性层(全连接层)反向传播过程中,计算偏置项偏导数时,为什么不需要将梯度除以输入样本的数量来平均化?this->db = prevGrad.colwise().sum();...
--Li-Mee
4. Re:机器学习:线性回归(下)
@正德di人蹦叉叉 可以参考标量形式的推导:
MSE
=
(
y
−
x
w
)
2
=
(
y
−
∑
i
=
1
D
x
i
w
i
)
2
对其求导,可得:...
--SXWisON
5. Re:机器学习:线性回归(下)
最小二乘法那里偏导怎么求啊,就是公式2.1上面那里
--正德di人蹦叉叉
点击右上角即可分享