LLM面试题汇总
LLM相关
LLM基础
- zero shot、one shot、three shot是什么
- bf16和fp16有什么区别
LLM微调
-
Adpter Tuning
-
Prefix Tuning
-
LoRA原理
LoRA(Low-Rank Adaptation of Large Language Models)是一种用于高效微调大语言模型的方法。它的核心思想是在预训练模型权重矩阵上额外引入两个低秩矩阵,在微调过程中通过更新低秩矩阵从而实现在目标任务或领域的迁移,有效地减少了需要更新的参数量,并且降低了微调的计算和存储成本。训练完成后只需要将两个低秩矩阵的乘积加回到原始权重矩阵中从而得到更新后的模型。
-
QLoRA原理
Prompt
LangGPT
LLM应用
Transformer
-
解释self attention 和 cross attention
-
为什么要除以
当变大导致的方差变大,导致元素之间的差异变大,会造成softmax函数退化成argmax
-
BERT和Transformer的区别
-
手写Transformer
GPT相关
- GPT架构(GPT和Transformer的区别)
Llama相关
-
Llama2架构
-
Llama2 transformer block 里做了哪些改变
-
为什么Llama2中使用了RMSNorm 而不用 LayerNorm
-
为什么用RoPE不用绝对位置编码,RoPE能表示绝对位置信息吗
-
为什么现在主流都用Decoder-only而不是Encoder-decoder
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)