摘要: 一:Transformer Transformer是来自 NLP 领域的非常著名的模型方法。Transformer在语言建模和构建对话式 AI 工具方面取得了巨大成功。 在视觉应用中,Transformer 表现出了泛化和自适应的优势,这使得它们非常适合通用学习。 它们比其他技术能够更好地捕捉文本甚 阅读全文
posted @ 2024-08-26 10:54 山上有风景 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 一:马尔可夫链 (一)什么是马尔可夫链 又称离散时间马尔可夫链,那就是某一时刻状态转移的概率只依赖于它的前一个状态。 举个简单的例子,假如每天的天气是一个状态的话,那个今天是不是晴天只依赖于昨天的天气,而和前天的天气没有任何关系。 马尔科夫链在很多时间序列模型中得到广泛的应用,比如循环神经网络RNN 阅读全文
posted @ 2024-08-26 10:53 山上有风景 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 一:GAN生成对抗网络(Generative Adversarial Networks) 在Stable Diffusion诞生之前,计算机视觉和机器学习方面最重要的突破是 GAN(Generative Adversarial Networks 生成对抗网络)。GAN让超越训练数据已有内容成为可能, 阅读全文
posted @ 2024-08-26 10:53 山上有风景 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 参考文档 Stable Diffusion之最全详解图解:https://blog.csdn.net/DFCED/article/details/136115267 Stable Diffusion 超详细讲解:https://blog.csdn.net/jarodyv/article/detail 阅读全文
posted @ 2024-08-26 10:52 山上有风景 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 一:RAG vs Fine-tuning (一)Fine-tuning(微调) 是用一定量的数据集对LLM进行局部参数的调整,以期望LLM更加理解我们的业务逻辑,有更好的zero-shot能力。 (二)RAG(检索增强生成) 是把企业内部的文档数据先进行embedding,借助检索先获得大致的知识范 阅读全文
posted @ 2024-08-26 10:51 山上有风景 阅读(321) 评论(0) 推荐(0) 编辑