采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
使用reranker模型的时候报错,
1. 你可以先试下 pytorch 环境,看下是否是True
import torch torch.cuda.is_available()
2. 你确认下,rerank模型是哪里下载的? 看错误是说4bit和8bit的量化后的模型
老师,我也遇到类似问题。我这边可以正常加载gte-large-zh,但换成bge-reranker-base就不行。模型是魔塔下的,课程给的链接。
你是有GPU显卡吗? 没有的话,可以试下调整成cpu执行 tokenizer = AutoTokenizer.from_pretrained(model_path) rerank_model = AutoModelForSequenceClassification.from_pretrained(model_path, device_map='cpu') # rerank_model = rerank_model.cuda()
回复 阿基米口:有显卡,也配置好了。同样的代码,加载gte-large-zh就可以,可以执行model.cuda()。但换成bge-reranker-base就不行了。我自己也在研究下,因为依赖包和课程不完全一致,很可能是这个原因。
登录后可查看更多问答,登录/注册
RAG全栈技术从基础到精通 ,打造高精准AI应用
517 8
118 8
354 7
1.1k 7
532 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号