请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

正在回答 回答被采纳积分+3

1回答

阿基米口 2025-05-05 20:49:06

1. 你可以先试下  pytorch 环境,看下是否是True

import torch
torch.cuda.is_available()


2. 你确认下,rerank模型是哪里下载的? 看错误是说4bit和8bit的量化后的模型

https://img1.sycdn.imooc.com/szimg/8a2371680918b3bc15120576.jpg

0 回复 有任何疑惑可以回复我~
  • 老师,我也遇到类似问题。我这边可以正常加载gte-large-zh,但换成bge-reranker-base就不行。模型是魔塔下的,课程给的链接。
    回复 有任何疑惑可以回复我~ 2025-07-24 14:50:16
  • 你是有GPU显卡吗? 没有的话,可以试下调整成cpu执行
    
    tokenizer = AutoTokenizer.from_pretrained(model_path)
    rerank_model = AutoModelForSequenceClassification.from_pretrained(model_path, device_map='cpu')
    # rerank_model = rerank_model.cuda()
    回复 有任何疑惑可以回复我~ 2025-07-25 17:20:37
  • 回复 阿基米口:有显卡,也配置好了。同样的代码,加载gte-large-zh就可以,可以执行model.cuda()。但换成bge-reranker-base就不行了。我自己也在研究下,因为依赖包和课程不完全一致,很可能是这个原因。
    回复 有任何疑惑可以回复我~ 2025-07-26 11:08:21
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号