采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,我想要在本地部署embeding模型,使用bge-large-zh-v1.5。我该如何使用langchain集成调用呀?
你好BGE在hugging face上部署,你可以使用HuggingFaceBgeEmbeddings来调用:
from langchain_community.embeddings import HuggingFaceBgeEmbeddings model_name = "BAAI/bge-small-en" model_kwargs = {"device": "cpu"} encode_kwargs = {"normalize_embeddings": True} hf = HuggingFaceBgeEmbeddings( model_name=model_name, model_kwargs=model_kwargs, encode_kwargs=encode_kwargs )
如果是本地部署的话,要看一下你是使用的什么软件进行的部署,如果是ollama的话,可以这样:
from langchain_ollama import OllamaEmbeddings embeddings = OllamaEmbeddings( model="bge-large-zh-v1.5", )
老师,ollama可以部署embedding模型吗?我在ollama官网搜索bge-large-zh-v1.5,pull到本地了下载量最高的,但是要如何运行呀?我使用ollama run 名称,报错呢。
from langchain_ollama import OllamaEmbeddings embeddings = OllamaEmbeddings( model="quentinz/bge-large-zh-v1.5", # 添加 quentinz/ 前缀 base_url="http://localhost:11434" ) vector = embeddings.embed_query("你好") print(vector) 需要指定base_url,不然提示链接不到ollama,已解决
登录后可查看更多问答,登录/注册
基于Langchain+LLM,赋能企业轻松具备符合自身业务的智能化能力
446 1
740 1
756 13
881 12
1.0k 8
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号