会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dsp Tian
博客园
首页
新随笔
联系
订阅
管理
[置顶]
matlab练习索引
摘要: 这里置顶一个索引吧,方便所有人查找。 基础与技巧: matlab练习程序(Schur补) matlab练习程序(正交分解) matlab练习程序(GPU加速) matlab练习程序(生成gif图片) matlab练习程序(克莱姆法则解方程) matlab练习程序(读取列不一致的数据) matlab练
阅读全文
posted @ 2021-01-27 21:45 Dsp Tian
阅读(4858)
评论(0)
推荐(6)
2025年6月24日
cmake构建后执行命令
摘要: 在cmake构建完成后想要执行一些命令或脚本。 可以使用下面代码,这里对生成的bin做了strip操作,减少占用空间。 add_custom_command( TARGET ${PROJECT_NAME} POST_BUILD COMMAND strip exe.bin )
阅读全文
posted @ 2025-06-24 21:55 Dsp Tian
阅读(4)
评论(0)
推荐(0)
git查看所有人提交次数
摘要: 执行下面命令: git shortlog -sn
阅读全文
posted @ 2025-06-24 21:53 Dsp Tian
阅读(2)
评论(0)
推荐(0)
解决OSError: We couldn't connect to 'https://huggingface.co'
摘要: 可以尝试执行下面命令: export HF_ENDPOINT=https://hf-mirror.com
阅读全文
posted @ 2025-06-24 21:53 Dsp Tian
阅读(42)
评论(0)
推荐(0)
2025年6月23日
深度学习(使用torchvision预训练权重)
摘要: 在做深度学习时,很多任务backbone是不需要完全重新训练的,使用预训练权重能够加快收敛,并且性能更好。 下面使用了torchvision中的efficientnet_b0网络,网络默认会生成原图1/32大小特征图后进分类器,这里截断到生成1/16大小的特征图部分,后面可以根据需求增加新的结构。
阅读全文
posted @ 2025-06-23 20:40 Dsp Tian
阅读(4)
评论(0)
推荐(0)
2025年6月14日
win下配置vscode默认使用conda环境
摘要: 1. 找到这个文件:C:\Users\xxx\AppData\Roaming\Code\User\settings.json 2. 增加下面配置,其中py310是conda环境: "terminal.integrated.profiles.windows": { "cmder": { "path":
阅读全文
posted @ 2025-06-14 17:51 Dsp Tian
阅读(10)
评论(0)
推荐(0)
2025年5月30日
ollama部署qwen2.5vl
摘要: 安装完ollama后,执行: ollama run qwen2.5vl:7b 后下载qwen2.5vl模型。 安装后可以提供本地服务,配置外部服务需要做如下修改: 1. cd到/etc/systemd/system/目录下,修改ollama.service文件。 2. 增加下面两行配置: [Serv
阅读全文
posted @ 2025-05-30 20:50 Dsp Tian
阅读(370)
评论(0)
推荐(0)
2025年5月20日
解决Linux下ollama安装超时
摘要: 1. 在 虾壳 - GitHub下载加速网站 GitHub Proxy加速器 这里获取加速网址。 2. 选择合适加速网址,执行下面命令: export OLLAMA_MIRROR="https://ghproxy.net/https://github.com/ollama/ollama/releas
阅读全文
posted @ 2025-05-20 21:27 Dsp Tian
阅读(77)
评论(0)
推荐(0)
2025年5月18日
深度学习(Transformer文本分类)
摘要: 之前用LSTM做了个文本分类,这次用Transformer实现相同的功能。 不过这里不再做分词了,而是根据当前学习文本构建字表。 同样也不使用BucketIterator做数据填充,而是先根据句子字符长度排序,然后同一个batch中做字符填充。 最后给了一个测试例子。 import torch im
阅读全文
posted @ 2025-05-18 17:56 Dsp Tian
阅读(10)
评论(0)
推荐(0)
2025年5月2日
深度学习(MHA、MQA、GQA)
摘要: 注意力机制中MHA,MQA和GQA是三种经典的结构: MHA:每个头有独立的Q、K、V,参数多,模型表现力强,计算成本高。 MQA:所有头共享K和V,每个头有独立的Q,参数少,计算快,但可能牺牲一定的表达能力。 GQA:折中方案,将头分成g组,每组共享K和V,平衡参数和性能。 下图比较好的展示了三种
阅读全文
posted @ 2025-05-02 21:02 Dsp Tian
阅读(36)
评论(0)
推荐(0)
深度学习(模型保存)
摘要: 这里存四种格式: 1. 只保存模型参数的pth文件。 2. 能在python环境下读取的的模型结构和参数pt文件。 3. 能在c++环境下读取的模型结构和参数pt文件。 4. 能在pytorch环境外被其他框架读取的模型结构和参数onnx文件。 import torch import torch.n
阅读全文
posted @ 2025-05-02 20:02 Dsp Tian
阅读(46)
评论(0)
推荐(0)
下一页
公告