llama实验
尝试在实验室服务器上本地运行llama,看看llama可以干什么?
然后按照官网运行时报错:
…………
File "/defaultShare/archive/zhangyang/llama3/llama/model.py", line 288, in forward
mask = torch.triu(mask, diagonal=1)
通过new bing的回答进行如下尝试
在model文件的288行左右添加
mask = mask.to(torch.float32) # mask = torch.triu(mask, diagonal=1)
从而可以成功运行
细看代码参考:
https://www.cnblogs.com/xiangcaoacao/p/18173863
https://blog.csdn.net/weixin_43508499/article/details/132554559
https://zhuanlan.zhihu.com/p/679640407
细节问题:
- 缓存实现
- 旋转编码使用的函数
想法上:
为什么提示工程有效?
https://blog.csdn.net/2401_82469710/article/details/138614802
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 地球OL攻略 —— 某应届生求职总结
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 提示词工程——AI应用必不可少的技术
· .NET周刊【3月第1期 2025-03-02】