采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
使用的智普的接口,这个报错怎么解决呢?看起来是连不上huggingface,我猜应该可以改写成加载本地模型,但不清楚怎么修改。
没开梯子吧,国内远程拉hg很慢或者不可用,要么魔法上网,要么自己把gpt2这个分词器下载下来,然后这样调用:
from transformers import GPT2TokenizerFast # 1. 首先下载模型到指定目录 tokenizer = GPT2TokenizerFast.from_pretrained('gpt2', cache_dir='./models/gpt2') # 2. 之后使用本地模型 tokenizer = GPT2TokenizerFast.from_pretrained('./models/gpt2')
我补充一下,使用自定义的tokenizer(随便选一个模型都行,更通用的是使用transformers.AutoTokenizer),然后在初始化大模型的时候传参进去。 llm = ChatZhipuAI( model="glm-4", temperature=0, api_key='your_key', custom_get_token_ids=tokenizer )
登录后可查看更多问答,登录/注册
基于Langchain+LLM,赋能企业轻松具备符合自身业务的智能化能力
512 1
823 1
877 13
995 12
1.2k 8
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号