摘要:
前情提要:https://www.cnblogs.com/DAYceng/category/2227185.html 重写 注意事项和使用细节 方法重写也叫方法覆法,需要满足下面的条件 1.子类的方法的参数,方法名称,要和父类方法的参数,方法名称完全一样。 2.子类方法的返回类型和父类方法返回类型一 阅读全文
摘要:
写在最前 学习Java已经是很久之前的事情了,因为技术栈的转变,很久没有使用Java正经地开发过项目。 对于该语言的理解也是停留在表面,因此萌生了重新学习的念头。一方面是为刷算法题打基础,另一方面也是想拓展一下自己的技术栈(要不然失业了都) 既然我的目标是“复健”,那么显然不可能完全重新学习记录一遍 阅读全文
摘要:
一维卷积层的各项参数如下 torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', devic 阅读全文
摘要:
卷积输出大小计算方法 tensorflow中的常用卷积操作API 正向卷积:Conv2D() 举例: ... Conv2D(128, kernel_size=4, padding="same") # 128个过滤器(128维),卷积核大小为4,边缘填充 # 注:此处步长为默认值1,此时使用paddi 阅读全文
摘要:
参考资料: 1、https://github.com/dragen1860/TensorFlow-2.x-Tutorials 2、《Adversarial Feature Learning》 本次是对阅读BiGAN论文的一个记录,包含我自己对于BiGAN的一些理解 因为BiGAN在代码实现上没有很大 阅读全文
摘要:
想来想去还是记录一下吧,主要是怕以后时间长忘了 好记性不如烂笔头 代码来自eriklindernoren的开源GAN实现:https://github.com/eriklindernoren/Keras-GAN 主要是添加了一些注解,大家可以参考原工程来看 因为dcgan本质上与gan没什么区别(在 阅读全文
摘要:
参考资料: 1、https://github.com/dragen1860/TensorFlow-2.x-Tutorials 2、《Generative Adversarial Net》 直接介绍GAN可能不太容易理解,所以本次会顺着几个具体的问题讨论并介绍GAN(个人理解有限,有错误的希望各位大佬 阅读全文
摘要:
哈希表的简单介绍 1)哈希表在使用层面上可以理解为一种集合结构 2)如果只有key,没有伴随数据value,可以使用HashSet结构(C++中叫UnOrderedSet) 3)如果既有key,又有伴随数据value,可以使用HashMap结构(C++中叫UnOrderedMap) 4)有无伴随数据 阅读全文
摘要:
稳定性 定义:值相同的元素在排序完成之后能否保证原有的次序不变(同样值的个体之间,如果不因为排序而改变相对次序,这个排序就是有稳定性的,否则就没有) 举例: [2,1,3,1]-->[1,1,2,3] ① ② ① ② 在排完序后,第一个1和第二个1的次序还是一样的 在基础数组中,排序的稳定性用处不大 阅读全文
摘要:
堆与堆结构(优先级队列结构) 知识点: 堆结构就是用数组实现的完全二叉树结构 完全二叉树中如果每棵子树的最大值都在顶部就是大根堆 完全二叉树中如果每棵子树的最小值都在顶部就是小根堆 堆结构的heaplnsert与heapify操作 堆结构的增大和减少 优先级队列结构,就是堆结构 一段连续的数组是可以 阅读全文