摘要:参考:Transformer - Attention 参考:The Transformer Family 参考:利用 Transformer 网络建立预测模型 Full Architecture 分解(Feed Forward即是Fully Connected) Encoder部分 Decoder部
阅读全文
摘要:多分类问题 参考:3 种方法实现逻辑回归多分类【OneVsOne, OneVsRest】 参考:《少年的你》短评情感分析——机器学习之逻辑回归 参考:sklearn.multiclass.OneVsOneClassifier【中文版】、【英文版】 参考:Python机器学习-多元分类的5种模型 逻辑
阅读全文
摘要:参考:李宏毅-Transformer【动画细致,有助于理解Self-Attention】 参考:The Illustrated Transformer【详细到一些参数,动画也很好】 参考:Transformer论文逐段精读【论文精读】 李宏毅老师深入浅出讲解transformer模型:https:/
阅读全文
摘要:参考:Darts - Temporal Fusion Transformer(Examples) 参考:什么是协变量以及协变量的定义是什么?(Covariate,研究某种自变量对因变量的影响,则实验过程中除研究的自变量因变量之外,还有其他很多变量对实验造成影响,而这些其他变量中,可以被控制的叫控制变
阅读全文
摘要:参考:Evaluation Metrics For Multi-class Classification(Micro-, Macro- 计算) 参考:多分类模型Accuracy, Precision, Recall和F1-score的超级无敌深入探讨 参考:二分类和多分类问题下的评价指标详析(Pre
阅读全文
摘要:参考:Keras-多输入多输出实例(多任务) 参考:深度学习高级,Keras多输入和混合数据实现回归模型 简单总结就是:用数组表示即可!
阅读全文
摘要:参考:DRUNet—Infrared Small UAV Target Detection Based on Residual Image Prediction via Global and Local 参考:一文详解什么是空洞卷积? 参考:DILATED U-NET KERAS版本实现 encod
阅读全文
摘要:参考:‘NoneType‘ object has no attribute ‘_inbound_nodes‘解决方法汇总 问题原因 出现上图所示是因为在Keras的网络中一切都是要用层来表示,即当网络中一些keras.backend库中的函数如batch_dot、repeat_elements、Su
阅读全文
摘要:参考:Keras: Multiple Inputs and Mixed Data 代码: # compile the model using mean absolute percentage error as our loss, # implying that we seek to minimize
阅读全文
摘要:参考:遥感影像语义分割:D-LinkNet训练自己的数据集 参考:NekoApocalypse/road-extraction-d-linknet 代码: from keras.layers import Conv2D, MaxPooling2D, Input, Conv2DTranspose, \
阅读全文
摘要:参考:keras实现LinkNet 参考:nickhitsai/LinkNet-Keras 代码: import os import numpy as np from keras.layers import Input, concatenate, Conv2D, MaxPooling2D, Acti
阅读全文
摘要:参考:Image segmentation with a U-Net-like architecture 目录: 准备输入数据和目标分割掩膜的路径 通过 Sequence class 来加载和向量化数据 Keras构建模型 设置验证集 模型训练 预测结果可视化 1. 准备输入数据和目标分割掩膜的路径
阅读全文
摘要:https://en.wikipedia.org/wiki/Kernel_density_estimation 核密度估计 Kernel Density Estimation(KDE) Leveraging crowdsourced gps data for road extraction from
阅读全文
摘要:Introduction to autoencoders. Keras实现autoencoder Deep Auto-encoder 个人理解:非监督学习,通过构建一个两边宽,中间窄的结构,可以让数据的信息丢失,从而实现降低维度的效果了。
阅读全文
摘要:深度特征融合 高低层(多尺度)特征融合 U-Net中的skip connection 在很多工作中,融合不同尺度的特征是提高分割性能的一个重要手段。低层特征分辨率更高(low-level information),包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多(说明:原始图像
阅读全文
摘要:参考:7.6. Residual Networks (ResNet) 参考:Understanding and visualizing ResNets 参考:DeepLearning笔记(8)——ResNet 如下所示:左边为 identity shortcut,右边为 projection sho
阅读全文
摘要:我们熟知 特征提取 是CV核心问题之一,而特征提取从思路上分为两类:① 手动设计(hand-crafted);② 纯学习方式。这两种方式都是在一些生物神经理论的基础上进行的, 两者不同之处是hand-crafted设计的是特征本身,而纯学习设计的是特征提取框架的结构。 1. hand-crafted
阅读全文
摘要:参考博文:xgboost实战,一篇就好 安装 xgboost 报错:"* You are running 32-bit Python on a 64-bit OS..." 解决:戳(brew install libomp,运行这个就行了) 没有完全弄懂
阅读全文
摘要:Computer Vision 相关技术博客 【图像分割】技术发展路线 【图像分割】U-net系列方法 【图像分割】常用Loss Functions_1.0 【CV基础】CNN中的基本概念解释 Computer Vision 相关技术论文 【图像分割】U-Net: Convolutional Net
阅读全文
摘要:1. 先验知识 个人理解:就是那些完全正确的一些知识,不需要有任何经验验证,类似真理一样。 参考:机器之心 - 先验知识 feature map:特征图
阅读全文