2024.8.12 总结(集训)
1.2024.7.2 集训2.2024.8.1 总结(集训)3.2024.8.11 总结(集训 考试)
4.2024.8.12 总结(集训)
5.2024.8.13 总结(集训)6.2024.8.14 总结(集训)7.2024.8.16 总结(集训)8.2024.8.18 周总结(上周天到这周六集训,这周天放假)9.2024.8.20 总结(集训)10.2024.8.21 总结(集训 考试)11.2024.8.22 总结(集训)12.2024.8.23 总结(集训)13.2024.8.28 总结14.2024.8.29 总结15.2024.8.30 总结(集训 考 DP)16.2024.8.31 总结(集训 考 DP)17.2024.9.13 总结(考 DP)18.2024.9.16 上午 总结(考 DS)19.2024.9.16 下午 总结(考 DS)20.2024.10.1 总结(集训;数据结构 主要是线段树)21.2024.10.2 总结(集训;DP)22.2024.10.3 总结(集训 继续弄昨天的 DP)23.2024.10.4 总结24.2024.10.5 笔记25.[听课笔记 #2] exCat 的图论专题分享26.[考试总结] 2024.10.23 最近的几场考试27.[考试总结] NOIP2024 前 联考破防记破防的一天。
TQX 来给我们讲课。stO TQX Orz
讲的是二分图和网络流。感觉内容很多,而且比较难,讲得对我来说比较快。很多东西我还没懂就过了,有时我还走神了,没听到。
胡老师说今天是见图论的“天”,网络流是图论的天花板,本来就没打算让我们今天全部听懂。
下午看了一下午别人的博客、代码,学 KM 和 HLPP。结果 KM 原理大概懂了(只是大概),但是有些细节(最后保留交错树的优化)不会,代码不会写。HLPP 一开始没意识到有建反边反悔的操作。后来还是不懂 HLPP 的 gap 优化 为什么是对的。
下午放学前的一段时间和晚上一些时间都在网上查、看 HLPP 的博客、题解,但是还是没弄懂它的 gap 优化 的正确性。破防了。于是尝试自己乱改一个预流推进算法,但是太菜了没搞出来()
2024.8.12
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!