LLaMa 3.1: rope_scaling 错误

原因是因为一些基本库和model不匹配了:

Q:rope_scaling must be a dictionary with with two fields, name and factor, got {'factor': 8.0, 'low_freq_factor': 1.0, 'high_freq_factor': 4.0, 'original_max_position_embeddings': 8192, 'rope_type': 'llama3'}

pip install --upgrade transformers

Q: ImportError: cannot import name 'top_k_top_p_filtering' from 'transformers'

pip install --upgrade trl  

Q: ImportError: Using the Trainer with PyTorch requires accelerate>=0.26.0:

pip install -U accelerate
posted @   EpicMoCN  阅读(526)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
点击右上角即可分享
微信分享提示