摘要: 这里置顶一个索引吧,方便所有人查找。 基础与技巧: matlab练习程序(Schur补) matlab练习程序(正交分解) matlab练习程序(GPU加速) matlab练习程序(生成gif图片) matlab练习程序(克莱姆法则解方程) matlab练习程序(读取列不一致的数据) matlab练 阅读全文
posted @ 2021-01-27 21:45 Dsp Tian 阅读(4712) 评论(0) 推荐(5) 编辑
摘要: yolo11和yolo8后处理方法是完全一样的。 首先安装ultralytics,然后执行下面代码导出yolo11l.onnx模型。 from ultralytics import YOLO model = YOLO('yolo11l.pt') success = model.export(form 阅读全文
posted @ 2025-02-15 20:40 Dsp Tian 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 上一篇熟悉了LSTM之后,就可以用这个工具做nlp相关的实验了。 下面两组代码是使用LSTM做文本分类的实验: 一、更多使用自定义方法做文本分类的代码,有几个特点: 1. 数据集是根据csv文件格式解析的,用的自定义数据类。 2. 使用jieba分词。 3. 数据对齐使用了collate_fn和pa 阅读全文
posted @ 2025-02-03 16:22 Dsp Tian 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 三个网络的架构图: RNN: LSTM: GRU: 特性对比列表: 特性 RNN LSTM GRU 门控数量 无 3门(输入/遗忘/输出) 2门(更新/重置) 记忆机制 仅隐藏状态ht 显式状态Ct + 隐藏状态ht 隐式记忆(通过门控更新状态) 核心操作 直接状态传递 门控细胞状态更新 门控候选状 阅读全文
posted @ 2025-02-03 13:37 Dsp Tian 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 在深度学习中,归一化操作有BN,LN,GN,IN这几种形式,下表给出了各种方法的主要区别: 归一化方法 计算维度 固定维度 适用场景 特点 BatchNorm 沿 (N, H, W) 对每个通道独立计算 Channel 卷积神经网络 依赖批次大小,训练和推理行为不同 LayerNorm 沿 (C, 阅读全文
posted @ 2025-01-28 14:36 Dsp Tian 阅读(13) 评论(0) 推荐(0) 编辑
摘要: onnx对于einsum算子是在opset12之后才支持的,但是有些芯片对于onnx量化的支持只到opset11版本,遇到这种情况可以使用matmul替换einsum。 流程通常是将tensor先view成三维,然后将第一个tensor待消掉维度permute到最后一维,第二个tensor待消掉的维 阅读全文
posted @ 2025-01-26 22:31 Dsp Tian 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 将onnx模型参数从fp32转为fp16,可以减少一半模型大小。 import onnx from onnxconverter_common import float16 model = onnx.load("fp32.onnx") model_fp16 = float16.convert_floa 阅读全文
posted @ 2025-01-25 15:36 Dsp Tian 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 下面实现了深度学习中的几种优化器,包括SGD,Momentum, Nesterov,AdaGrad,RMSProp,AdaDelta,Adam和AdamW。 代码如下: import torch import torch.nn as nn from torchvision import transf 阅读全文
posted @ 2025-01-04 20:23 Dsp Tian 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 有时需要向linux系统scp数据时报出Read-only file system。 可以用下面命令解决: mount -o remount rw /home 阅读全文
posted @ 2024-12-28 20:25 Dsp Tian 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 简单训练了一个模型,可以实现超分辨率效果。模型在这里。 模型用了一些卷积层,最后接一个PixelShuffle算子。 训练数据是原始图像resize后的亮度通道。 标签是原始图像的亮度通道。 损失函数设为MSE。 代码如下: import torch import torch.nn as nn im 阅读全文
posted @ 2024-12-21 21:48 Dsp Tian 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 截止这篇笔记,llama.cpp主分支暂时不支持部署VL模型,需要切到一个分支上编译。部署流程整理自这个帖子。 部署流程如下: 1. 在modelscope上将Qwen2-VL-7B-Instruct下载下来。 2. 下载llama.cpp,需要下载这个分支。 3. 编译llama.cpp,流程和上 阅读全文
posted @ 2024-11-17 23:46 Dsp Tian 阅读(1159) 评论(0) 推荐(0) 编辑