摘要: 我是一个随波逐流的人。没有什么大智慧,也没有什么主见。往往我自己做的决定,都很难坚持下去。这是本文的基调。 举几个例子好了。**其一**,大家都念书,我不知道干什么,家里也支持我念书,就一直念到现在的硕士,虽然以后无法大富大贵,但衣食无忧尚且无忧。**其二**,大家都卷计算机的时候,我也卷了一段时间 阅读全文
posted @ 2023-06-29 23:18 小澳子 阅读(278) 评论(0) 推荐(0) 编辑
摘要: 1999->2023 细细想来,我竟也是跨世纪的人。 0504 生日在青年节,之后就是立夏。 寄语 想长成茁壮的大树,应该收拢枝丫,发育根系,深扎地下。 独木不成林,但!和别的树靠的太近会养分不足。要学会保持距离,同时不远离集体。 以后要好好学会和自己相处。 埋头苦干,轻声细语,博一番未来,加油! 阅读全文
posted @ 2023-05-02 15:41 小澳子 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 前言 导师需要我将预测的几个结果单独计算出每一张图的精度评价,包含以下指标:iou,recall,F1。 因为他说我利用代码批量计算的结果有误。 如果是这样的话可就坏了,希望我的结果没有出太多错误,不然已经做过计算的某些内容又需要全部重新计算了。 利用envi计算精度指标 使用tif格式影像 师姐说 阅读全文
posted @ 2023-04-11 16:35 小澳子 阅读(2017) 评论(0) 推荐(0) 编辑
摘要: 我可能确实对编程有一定的兴趣,也确实对互联网的高薪有着极强的向往。 但我确实不太适合干程序员了。 所有的一切都是自己摸索是无法成为合格的程序员的。也实在向往更自由一点的人生了。 一开始我会抱怨实验室,抱怨导师,没能给我技术性的指导(我的导师给了我遥感方面技术的指导,但我们实验室目前主流使用深度学习方 阅读全文
posted @ 2023-04-11 10:11 小澳子 阅读(51) 评论(0) 推荐(0) 编辑
摘要: LayerNorm和BatchNorm相比,与一次传入网络的size大小无关,这一点与GroupNorm相似。 经过一番搜索以后,发现可能确实不适用于卷积神经网络中。 更直接的劝退原因是,最近不是很想学深度学习,只想毕业,所以三心二意之下搞不明白LayerNorm怎么使用。不是很能明白下图中的Lay 阅读全文
posted @ 2023-03-15 10:48 小澳子 阅读(419) 评论(0) 推荐(0) 编辑
摘要: 不使用BatchNorm的原因 相比起batchNorm,groupNorm对一个batch的size更不敏感。在现有的研究中,batchNorm在batchsize越大的情况下,效果更佳,batchsize=32的情况明显优于batchsize=2。 在许多计算机视觉的任务中,batchsize由 阅读全文
posted @ 2023-03-10 09:55 小澳子 阅读(828) 评论(0) 推荐(0) 编辑
摘要: final 最终的——>不可变的。 修饰方法 最终方法,不可被子类重写。 如果方法是一个规则,那么使用final修饰! 修饰类 最终类,不能被继承。 没有子类。 如String类。 在源码中常用,但自己使用并不常用。 变量 称常量,只能被赋值1次。 常被使用。且变量被final修饰时,必须即刻被赋值 阅读全文
posted @ 2023-02-06 17:19 小澳子 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 问题描述 直接使用unzip fileName.zip命令解压zip文件,解压出的文件名是乱码的。 在文件夹中是这样显示的: 解决办法 方法1:实践可用[来源于文末链接1] unzip -O CP936 fileName.zip (大写o:O) 方法2:实践可用(recommend)[来源于文末链接 阅读全文
posted @ 2023-01-29 22:35 小澳子 阅读(438) 评论(0) 推荐(0) 编辑
摘要: 包 使用其他包中的类的规则:使用import导入(导包) 阅读全文
posted @ 2023-01-20 21:31 小澳子 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 因为在想去一个家乡的小国企,每个月五六千块钱或许也不错,所以懈怠了学习。但是论语中有说:取乎其上,得乎其中;取乎其中,得乎其下;取乎其下,则无所得矣。如果我想着只是进一个小地方的国企,那么最后可能连找到工作都很悬。意识到错误,所以又来加紧学习的步伐了。 而且我相信论语中的这些话是对的。因为我读研初期 阅读全文
posted @ 2023-01-20 16:37 小澳子 阅读(28) 评论(0) 推荐(0) 编辑