NTU ML2023Spring Part3.4 Self Attention
1.NTU ML2023Spring Part02.NTU ML2023Spring Part1(合集)3.NTU ML2023Spring Part2.1 基础知识4.NTU ML2023Spring Part2.2 新手村攻略5.NTU ML2023Spring Part2.3 训不起来怎么办6.NTU ML2023Spring Part2.4 卷积神经网络(CNN)7.NTU ML2023Spring Part2.5 self attention8.NTU ML2023Spring Part2.6 Transformer9.NTU ML2023Spring Part2.7 GAN10.NTU ML2023Spring Part3.1 Regression11.NTU ML2023Spring Part3.2 Classification12.NTU ML2023Spring Part3.3 CNN
13.NTU ML2023Spring Part3.4 Self Attention
License: CC BY-NC-SA 4.0
我真傻,真的。我是单知道 Google colab 有 GPU,不知道 Kaggle 认证完手机号也有 GPU,而且给的比 colab 多多了。终于不用在我的旧手机上炼丹了。
这一部分因为 ml2023 作业 sample code 的 链接 失效了,所以做的是 ml2022 的相应作业。
先是试着把 Classifier 里的 d_model
和 encoder_layer
中 nhead
调大,但训了一下发现没什么改进。
再抱着力大砖飞的想法给 pred_layer
里加了一层线性层(听说这里 2023 版本的激活函数变成 sigmoid 了,要想优化还要手动调成 ReLU)。结果反而更差了。
心态有点崩,于是上 B 站搜索了相关的视频讲解。发现把 Dataset 里的 segment_len
增大就能跑到 acc 0.76,差点就能上 strong baseline 了。
后面的 conformer 什么的先不写了(咕)。
合集:
NTU ML2023Spring
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
· Manus的开源复刻OpenManus初探