Stable Diffusion 学习笔记

摘要: 对于diffusion的原始论文的理解 参考,https://www.bilibili.com/video/BV18a4y1T75X/?p=2&spm_id_from=pageDriver&vd_source=1eb6e5015a1f70daa97080d8ee786d5d https://www. 阅读全文
posted @ 2024-03-13 16:04 fxjwind 阅读(78) 评论(0) 推荐(0) 编辑

So-VITS-SVC 课程笔记

摘要: 课程地址,https://www.bilibili.com/video/BV1uj411v7zW/?spm_id_from=pageDriver&vd_source=1eb6e5015a1f70daa97080d8ee786d5d So-VITS-SVC:SoftVC VITS Singing Vo 阅读全文
posted @ 2024-02-06 15:09 fxjwind 阅读(1072) 评论(0) 推荐(0) 编辑

VITS课程学习笔记

摘要: 课程地址, https://www.bilibili.com/video/BV1wV411j7zG/?spm_id_from=333.788&vd_source=1eb6e5015a1f70daa97080d8ee786d5d 举世无双语音合成系统 VITS 发展历程(2023.12.06 Open 阅读全文
posted @ 2024-02-02 20:00 fxjwind 阅读(532) 评论(0) 推荐(1) 编辑

SO-VITS-SVC使用

摘要: https://zhuanlan.zhihu.com/p/630115251?utm_id=0 https://www.bilibili.com/read/cv22206231/ python版本,3.10 开个python虚拟环境 python -m venv 升级pip,否则会报错 用pip i 阅读全文
posted @ 2024-01-22 15:10 fxjwind 阅读(191) 评论(0) 推荐(0) 编辑

LLMs and SQL

摘要: https://blog.langchain.dev/llms-and-sql/ LLM生成SQL很容易 解决的问题是如果让LLM生成的SQL,是valid并且结果正确的 模拟人是如何写SQL的,本身人也是要上下文的, 那么问题就是需要什么上下文,并且如何组织 比较直觉的是,给出schema和几条真 阅读全文
posted @ 2023-06-28 14:33 fxjwind 阅读(239) 评论(0) 推荐(0) 编辑

论文解析 -- A Survey of Large Language Models

摘要: https://zhuanlan.zhihu.com/p/611403556,总结当下可用的大模型 什么是语言模型?生成式,完成语言接龙或填空 Technically, language modeling (LM) is one of the major approaches to advancin 阅读全文
posted @ 2023-05-25 10:59 fxjwind 阅读(895) 评论(0) 推荐(0) 编辑

langchain-ChatGLM调研

摘要: https://github.com/imClumsyPanda/langchain-ChatGLM 1. 确定显卡规格 lspci | grep -i nvidia 00:07.0 3D controller: NVIDIA Corporation GV100GL [Tesla V100 SXM2 阅读全文
posted @ 2023-05-15 14:24 fxjwind 阅读(886) 评论(0) 推荐(0) 编辑

CNCF Landscape Guide

摘要: https://landscape.cncf.io/guide#introduction Cloud Native Computing Foundation (CNCF) serves as the vendor-neutral home for many of the fastest-growin 阅读全文
posted @ 2023-05-08 14:01 fxjwind 阅读(183) 评论(0) 推荐(0) 编辑

李宏毅meta learning笔记

摘要: 学习如何学习 其实就是学习模型本身,模型的超参数 定义一个function,输入是一堆训练任务,输出是一个模型,这个和传统的机器学习没有本质不同 所以也是分成三步, 定义学什么,和相应的学习模型,meta learning本身也是有meta的。。。。。。 定义loss函数 用优化算法求解,但是这个L 阅读全文
posted @ 2023-05-05 10:41 fxjwind 阅读(60) 评论(0) 推荐(0) 编辑

李宏毅BERT笔记

摘要: Self-supervised是LeCun提出的,将unsupervised learning的一部分称为Self-supervisor 常用于NLP,一段文字分成两部分,用第一部分来预测第二部分 自监督学习的模型名,大都来自芝麻街的角色 BERT有两种训练的方式, 第一种是Masking Inpu 阅读全文
posted @ 2023-05-03 21:24 fxjwind 阅读(109) 评论(0) 推荐(0) 编辑