会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dsp Tian
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
···
79
下一页
2025年6月24日
解决OSError: We couldn't connect to 'https://huggingface.co'
摘要: 可以尝试执行下面命令: export HF_ENDPOINT=https://hf-mirror.com
阅读全文
posted @ 2025-06-24 21:53 Dsp Tian
阅读(383)
评论(0)
推荐(0)
2025年6月23日
深度学习(使用torchvision预训练权重)
摘要: 在做深度学习时,很多任务backbone是不需要完全重新训练的,使用预训练权重能够加快收敛,并且性能更好。 下面使用了torchvision中的efficientnet_b0网络,网络默认会生成原图1/32大小特征图后进分类器,这里截断到生成1/16大小的特征图部分,后面可以根据需求增加新的结构。
阅读全文
posted @ 2025-06-23 20:40 Dsp Tian
阅读(121)
评论(0)
推荐(0)
2025年6月14日
win下配置vscode默认使用conda环境
摘要: 1. 找到这个文件:C:\Users\xxx\AppData\Roaming\Code\User\settings.json 2. 增加下面配置,其中py310是conda环境: "terminal.integrated.profiles.windows": { "cmder": { "path":
阅读全文
posted @ 2025-06-14 17:51 Dsp Tian
阅读(241)
评论(0)
推荐(0)
2025年5月30日
ollama部署qwen2.5vl
摘要: 安装完ollama后,执行: ollama run qwen2.5vl:7b 后下载qwen2.5vl模型。 安装后可以提供本地服务,配置外部服务需要做如下修改: 1. cd到/etc/systemd/system/目录下,修改ollama.service文件。 2. 增加下面两行配置: [Serv
阅读全文
posted @ 2025-05-30 20:50 Dsp Tian
阅读(2539)
评论(0)
推荐(0)
2025年5月20日
解决Linux下ollama安装超时
摘要: 1. 在 虾壳 - GitHub下载加速网站 GitHub Proxy加速器 这里获取加速网址。 2. 选择合适加速网址,执行下面命令: export OLLAMA_MIRROR="https://ghproxy.net/https://github.com/ollama/ollama/releas
阅读全文
posted @ 2025-05-20 21:27 Dsp Tian
阅读(665)
评论(0)
推荐(0)
2025年5月18日
深度学习(Transformer文本分类)
摘要: 之前用LSTM做了个文本分类,这次用Transformer实现相同的功能。 不过这里不再做分词了,而是根据当前学习文本构建字表。 同样也不使用BucketIterator做数据填充,而是先根据句子字符长度排序,然后同一个batch中做字符填充。 最后给了一个测试例子。 import torch im
阅读全文
posted @ 2025-05-18 17:56 Dsp Tian
阅读(60)
评论(0)
推荐(0)
2025年5月2日
深度学习(MHA、MQA、GQA)
摘要: 注意力机制中MHA,MQA和GQA是三种经典的结构: MHA:每个头有独立的Q、K、V,参数多,模型表现力强,计算成本高。 MQA:所有头共享K和V,每个头有独立的Q,参数少,计算快,但可能牺牲一定的表达能力。 GQA:折中方案,将头分成g组,每组共享K和V,平衡参数和性能。 下图比较好的展示了三种
阅读全文
posted @ 2025-05-02 21:02 Dsp Tian
阅读(357)
评论(0)
推荐(0)
深度学习(模型保存)
摘要: 这里存四种格式: 1. 只保存模型参数的pth文件。 2. 能在python环境下读取的的模型结构和参数pt文件。 3. 能在c++环境下读取的模型结构和参数pt文件。 4. 能在pytorch环境外被其他框架读取的模型结构和参数onnx文件。 import torch import torch.n
阅读全文
posted @ 2025-05-02 20:02 Dsp Tian
阅读(147)
评论(0)
推荐(0)
2025年4月19日
深度学习(onnx合并)
摘要: 多个onnx可以合并为一个onnx,这样在c++调用的时候会方便一些。 如果有原始pytorch代码和模型参数,可以在导出时合并。 如果只有onnx文件,可以用下面的方法合并,每个模型各自是各自的输入输出。 import onnx import torch import torch.nn as nn
阅读全文
posted @ 2025-04-19 22:25 Dsp Tian
阅读(229)
评论(0)
推荐(0)
2025年4月8日
解决win10复制粘贴失效
摘要: cmd下输入: echo off|clip
阅读全文
posted @ 2025-04-08 20:31 Dsp Tian
阅读(40)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
···
79
下一页
公告