02 2025 档案
LoRA阅读笔记
摘要:LoRA精读笔记 背景 随着我们预训练更大规模的模型,完全微调(即重新训练所有模型参数)变得越来越不可行。 ==>提出了提出了低秩适应(Low-Rank Adaptation,LoRA)方法,该方法冻结预训练模型的权重,并在Transformer架构的每一层中注入可训练的秩分解矩阵,从而大大减少了下
远程服务器使用本地代理的方法
摘要:由于笔记本没有GPU,做的又是ai方向,所以经常性的需要远程连接到实验室的服务器运行代码(Pycharm pro + SSH)。但是遗憾的是,服务器并没有魔法,访问不了很多科学网站。今天也是稍微折腾了一下,终于配好了可以。 主要原理就是将本地端口代理到远程端口,然后服务器设定访问代理访问远程端口,就