摘要:
step1:输入数据 from keras.datasets import mnist (train_images, train_labels), (test_images, test_labels) = mnist.load_data() train_images = train_images.r 阅读全文
摘要:
每一个神经层都用下述方法对输入数据进行变换: output = relu(dot(w, input) + b ) 在这个表达式中,W 和 b 都是张量,均为该层的属性。它们被称为该层的权重(weight)或可训练参数(trainable parameter),分别对应 kernel 和 bias 属 阅读全文
摘要:
面向任意目标检测的动态锚点学习 摘要:面向任意的目标广泛地出现在自然场景、航空照片、遥感图像等中,因此面向任意的目标检测得到了广泛的关注。目前许多旋转探测器使用大量不同方向的锚点来实现与地面真实框的空间对齐。然后应用交叉-并集(IoU)对正、负候选样本进行训练。但是,我们观察到,选择的正锚点回归后并 阅读全文
摘要:
小物体检测的增强 摘要:在近些年来,目标检测已经有了长足的进步。尽管有很大改进,但是在小目标和大目标检测性能方面还是有巨大的差距。我们在具有挑战性的数据集MS-COCO上分析了目前性能最好的模型Mask-RCNN。我们发现小目标真实框和预测框的重叠部分远远小于希望的IOU临界值。我们猜测这是由于两个 阅读全文
摘要:
神经网络学到的所有变换都可以简化为数值数据张量上的一些张量计算。 keras.layers.Dense(512, activation='relu') 这个层可以理解为一个函数,输入一个 2D 张量,返回另一个 2D 张量,即输入张量的新表示。具体而言,这个函数如下所示(其中 W 是一个 2D 张量 阅读全文