采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,我想要在本地部署embeding模型,使用bge-large-zh-v1.5。我该如何使用langchain集成调用呀?
你好BGE在hugging face上部署,你可以使用HuggingFaceBgeEmbeddings来调用:
from
langchain_community.embeddings
import
HuggingFaceBgeEmbeddings
model_name
=
"BAAI/bge-small-en"
model_kwargs
{
"device"
:
"cpu"
}
encode_kwargs
"normalize_embeddings"
True
hf
HuggingFaceBgeEmbeddings(
model_name, model_kwargs
model_kwargs, encode_kwargs
)
如果是本地部署的话,要看一下你是使用的什么软件进行的部署,如果是ollama的话,可以这样:
langchain_ollama
OllamaEmbeddings
embeddings
OllamaEmbeddings(
model
"bge-large-zh-v1.5"
,
老师,ollama可以部署embedding模型吗?我在ollama官网搜索bge-large-zh-v1.5,pull到本地了下载量最高的,但是要如何运行呀?我使用ollama run 名称,报错呢。
from langchain_ollama import OllamaEmbeddings embeddings = OllamaEmbeddings( model="quentinz/bge-large-zh-v1.5", # 添加 quentinz/ 前缀 base_url="http://localhost:11434" ) vector = embeddings.embed_query("你好") print(vector) 需要指定base_url,不然提示链接不到ollama,已解决
登录后可查看更多问答,登录/注册
基于Langchain+LLM,赋能企业轻松具备符合自身业务的智能化能力
267 1
557 1
408 13
628 12
624 8
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号