深度学习-数据集增强-方法
Data Augmentation--数据增强解决你有限的数据集
can my “state-of-the-art” neural network perform well with the meagre amount of data I have?
Yes.我们的优化目的,是当参数沿着正确的方向调整时,模型的loss可以达到最低。
How do I get more data, if I don’t have “more data”?
因此,为了获得更多数据,我们只需要对现有数据集进行微小改动。轻微更改,例如翻转或翻译或轮换。无论如何,我们的神经网络会认为这些是不同的图像。
卷积神经网络CNN,对放置在不同方向的对象,也能进行稳健的分类,即具有不变性的属性。更具体地,CNN对于平移,不同视角,尺度大小或光照等(或上述的组合)可以是不变的。
这基本上是数据增加的前提。在实际场景中,我们可能会在一组有限的条件下获取图像数据集。但是,我们的目标应用可能存在于各种条件下,例如不同的方向,位置,比例,亮度等。我们通过使用额外的合成对数据进行修改,并训练我们的神经网络来解释这些情况。
1、Flip
给你个图像自己体会!!!
# NumPy.'img' = A single image. flip_1 = np.fliplr(img)
# TensorFlow. 'x' = A placeholder for an image. shape = [height, width, channels] x = tf.placeholder(dtype = tf.float32, shape = shape) flip_2 = tf.image.flip_up_down(x) flip_3 = tf.image.flip_left_right(x) flip_4 = tf.image.random_flip_up_down(x) flip_5 = tf.image.random_flip_left_right(x)
2、Rotation
关于此操作需要注意的一件事是旋转后图像尺寸可能无法保留。如果您的图像是正方形,则以直角旋转它将保留图像大小。如果它是一个矩形,旋转180度将保持大小。以更精细的角度旋转图像也会改变最终的图像尺寸。我们将在下一节中看到我们如何处理这个问题。以下是以直角旋转的方形图像的示例。
您可以使用您喜欢的包中的任何以下命令执行旋转。数据增强因子= 2到4倍
# Placeholders: 'x' = A single image, 'y' = A batch of images # 'k' denotes the number of 90 degree anticlockwise rotations shape = [height, width, channels] x = tf.placeholder(dtype = tf.float32, shape = shape) rot_90 = tf.image.rot90(img, k=1) rot_180 = tf.image.rot90(img, k=2)
# To rotate in any angle. In the example below, 'angles' is in radians shape = [batch, height, width, 3] y = tf.placeholder(dtype = tf.float32, shape = shape) rot_tf_180 = tf.contrib.image.rotate(y, angles=3.1415)
# Scikit-Image. 'angle' = Degrees. 'img' = Input Image # For details about 'mode', checkout the interpolation section below. rot = skimage.transform.rotate(img, angle=45, mode='reflect')
3、Scale
图像可以向外或向内缩放。向外缩放时,最终图像尺寸将大于原始图像尺寸。大多数图像框架从新图像中剪切出一个部分,其大小等于原始图像。我们将在下一节中处理向内缩放,因为它会缩小图像大小,迫使我们对超出边界的内容做出假设。以下是缩放的示例或图像。
您可以使用scikit-image使用以下命令执行缩放。数据增强因子=任意。
# Scikit Image. 'img' = Input Image, 'scale' = Scale factor # For details about 'mode', checkout the interpolation section below. scale_out = skimage.transform.rescale(img, scale=2.0, mode='constant') scale_in = skimage.transform.rescale(img, scale=0.5, mode='constant') # Don't forget to crop the images back to the original size (for # scale_out)
4、Crop
与缩放不同,我们只是从原始图像中随机抽样一个部分。
然后,我们将此部分的大小调整为原始图像大小。
这种方法通常称为随机裁剪。
以下是随机裁剪的示例。
仔细观察,您会发现此方法与缩放之间的区别。
您可以使用以下任何TensorFlow命令执行随机裁剪。数据增强因子=任意。
# TensorFlow. 'x' = A placeholder for an image. original_size = [height, width, channels] x = tf.placeholder(dtype = tf.float32, shape = original_size) # Use the following commands to perform random crops crop_size = [new_height, new_width, channels] seed = np.random.randint(1234) x = tf.random_crop(x, size = crop_size, seed = seed) output = tf.images.resize_images(x, size = original_size)
5、Translation
翻译只涉及沿X或Y方向(或两者)移动图像。在下面的示例中,我们假设图像在其边界之外具有黑色背景,并且被适当地翻译。这种增强方法非常有用,因为大多数对象几乎可以位于图像的任何位置。这迫使你的卷积神经网络无处不在。
您可以使用以下命令在TensorFlow中执行转换。
数据增强因子=任意
# pad_left, pad_right, pad_top, pad_bottom denote the pixel # displacement. Set one of them to the desired value and rest to 0 shape = [batch, height, width, channels] x = tf.placeholder(dtype = tf.float32, shape = shape) # We use two functions to get our desired augmentation x = tf.image.pad_to_bounding_box(x, pad_top, pad_left, height + pad_bottom + pad_top, width + pad_right + pad_left) output = tf.image.crop_to_bounding_box(x, pad_bottom, pad_right, height, width)
6、Gaussion Noise
当您的神经网络试图学习可能无用的高频特征(大量出现的模式)时,通常会发生过度拟合。具有零均值的高斯噪声基本上在所有频率中具有数据点,从而有效地扭曲高频特征。这也意味着较低频率的组件(通常是您的预期数据)也会失真,但您的神经网络可以学会超越它。添加适量的噪音可以增强学习能力。一个色调较低的版本是盐和胡椒噪音,它表现为随机的黑白像素在图像中传播。这类似于通过向图像添加高斯噪声而产生的效果,但可能具有较低的信息失真水平。
您可以在TensorFlow上使用以下命令为图像添加高斯噪声。数据增强因子= 2x。
#TensorFlow. 'x' = A placeholder for an image. shape = [height, width, channels] x = tf.placeholder(dtype = tf.float32, shape = shape) # Adding Gaussian noise noise = tf.random_normal(shape=tf.shape(x), mean=0.0, stddev=1.0, dtype=tf.float32) output = tf.add(x, noise)
Advanced Augmentation Techniques高级增强技术
现实世界中,原始数据仍然可以存在于上述简单方法无法解释的各种条件下。例如,识别照片中景观(山水)。景观可以是任何东西:冰苔原,草原,森林等。听起来像一个非常直接的分类任务吧?除了一件事,你是对的。我们忽略了影响表演的照片中的一个重要特征 - 拍摄照片的季节。
如果我们的神经网络不了解某些景观可以在各种条件下(雪,潮湿,明亮等)存在的事实,它可能会将冰冻的湖岸错误地标记为冰川或将湿地标记为沼泽。
缓解这种情况的一种方法是添加更多图片,以便我们考虑所有季节性变化。但这是一项艰巨的任务。扩展我们的数据增强概念,想象一下人工生成不同季节的效果有多酷?
GAN来拯救你
在没有加入细节的情况下,条件GAN可以将图像从一个域转换为图像到另一个域。如果你认为这听起来太模糊,No;这就是这个神经网络的强大功能!以下是用于将夏季风景照片转换为冬季风景的条件GAN的示例。
Changing seasons using a CycleGAN (Source)
上述方法是稳健的,但计算密集。更便宜的替代品将被称为神经风格转移。它抓取一个图像(又称“风格”)的纹理/氛围/外观,并将其与另一个图像的内容混合。使用这种强大的技术,我们产生类似于条件GAN的效果(事实上,这种方法是在cGAN发明之前引入的!)。
这种方法的唯一缺点是,输出看起来更具艺术性而非现实性。但是,有一些进步,如下面显示的深度照片风格转移,有令人印象深刻的结果。
深度照片风格转移。请注意我们如何在数据集上生成我们想要的效果。(来源)
我们没有深入探索这些技术,因为我们并不关心它们的内在工作。我们可以使用现有的训练模型,以及转移学习的魔力,将其用于增强。
A brief note on interpolation关于插值的简要说明
如果您想要翻译不具有黑色背景的图像,该怎么办?如果你想向内扩展怎么办?或者以更精细的角度旋转?在我们执行这些转换后,我们需要保留原始图像大小。由于我们的图像没有关于其边界之外的任何信息,我们需要做出一些假设。通常,假设图像边界之外的空间在每个点都是常数0。因此,当您进行这些转换时,会得到一个未定义图像的黑色区域。
从左侧开始,图像逆时针旋转45度,图像向右旋转,图像向内缩放。
**但这是正确的假设吗?**在现实世界的情况下,大多数不是。图像处理和ML框架有一些标准方法,您可以使用它们来决定如何填充未知空间。它们的定义如下。
从左边开始,我们有constant, edge, reflect, symmetric and wrap模式。
1、Constant
最简单的插值方法是用一些常数值填充未知区域。这可能不适用于自然图像,但可以用于在单色背景下拍摄的图像。
2、Edge
在边界之后扩展图像的边缘值。此方法适用于温和的translations。
3、Relect
图像像素值沿图像边界反射。此方法适用于包含树木,山脉等的连续或自然背景。
4、Symmetric对称
该方法类似于反射,除了在反射边界处制作边缘像素的副本的事实。通常,反射和对称可以互换使用,但在处理非常小的图像或图案时会出现差异。
5、Wrap
图像只是重复超出其边界,就好像它正在平铺一样。这种方法并不像其他方法那样普遍使用,因为它对很多场景都没有意义。
除此之外,您可以设计自己的方法来处理未定义的空间,但通常这些方法对大多数分类问题都可以。
So, if I use ALL of these techniques, my ML algorithm would be robust right?
如果你以正确的方式使用它,那么是的!你问的正确方法是什么?好吧,有时并非所有的增强技术都对数据集有意义。再考虑我们的汽车示例。以下是一些修改图像的方法。
第一幅图像(左起)是原始图像,第二张图像是水平翻转,第三张图像旋转180度,最后一张图像旋转90度(顺时针)。
当然,它们是同一辆车的照片,但您的目标应用可能永远不会看到以这些方向呈现的汽车。
例如,如果您只是想在路上对随机汽车进行分类,那么只有第二张图像才能在数据集上进行分类。但是,如果你拥有一家处理车祸的保险公司,并且你想要确定倒车,破车的车型,那么第三张图片就有意义了。对于上述两种情况,最后一张图像可能没有意义。
关键是,在使用增强技术时,我们必须确保不增加不相关的数据。
Is it really worth the effort?
你可能期待一些结果来激励你走得更远。很公平;我也有这个问题。让我用玩具示例证明增强确实有效。您可以复制此实验以进行验证。
让我们创建两个神经网络,将数据分类为四类中的一类:猫,狮子,老虎或豹子。问题是,一个不会使用数据增加,而另一个则不会。您可以从此处下载数据集link。(ps:需要FQ,打不开的可留邮箱给我)
如果你已经检查了数据集,你会发现每个类只有50个图像用于训练和测试。显然,我们不能对其中一个分类器使用扩充。为了使赔率更公平,我们使用 Transfer Learning为模型提供了更少的数据量。
对于没有增强的那个,让我们使用VGG19网络。我在这里写了一个TensorFlow实现,它基于here这个实现。一旦你克隆了我的仓库,就可以从这里(同上data)获取数据集,并从这里获取vgg19.npy(用于转移学习)。您现在可以运行模型来验证性能。
我同意,编写额外的数据扩充代码确实是一种努力。所以,为了建立我们的第二个模型,我转向Nanonets。他们在内部使用转移学习和数据扩充,以使用最少的数据提供最佳结果。您需要做的就是在他们的网站上传数据,并等待它们在他们的服务器上训练(通常大约30分钟)。你知道什么,它对我们的比较实验来说是完美的。
完成培训后,您可以请求调用其API来计算测试准确度。查看我的仓库以获取示例代码段(不要忘记在代码段中插入您的模型ID)。
Results VGG19 (No Augmentation)- 76% Test Accuracy (Highest) Nanonets (With Augmentation) - 94.5% Test Accuracy
令人印象深刻的不是它。事实上,大多数模型在更多数据的情况下表现良好。所以为了提供一个具体的证明,我已经提到了下表。它显示了Cifar 10(C10)和Cifar 100(C100)数据集上流行神经网络的错误率。C10 +和C100 +列是数据增加的错误率。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 因为Apifox不支持离线,我果断选择了Apipost!
· 通过 API 将Deepseek响应流式内容输出到前端