请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

本地部署embeding模型,使用bge-large-zh-v1.5,如何使用langchain集成

老师您好,我想要在本地部署embeding模型,使用bge-large-zh-v1.5。我该如何使用langchain集成调用呀?

正在回答 回答被采纳积分+3

插入代码

1回答

tomiezhang 2025-02-17 00:39:01

你好BGE在hugging face上部署,你可以使用HuggingFaceBgeEmbeddings来调用:

1
2
3
4
5
6
7
8
from langchain_community.embeddings import HuggingFaceBgeEmbeddings
 
model_name = "BAAI/bge-small-en"
model_kwargs = {"device""cpu"}
encode_kwargs = {"normalize_embeddings"True}
hf = HuggingFaceBgeEmbeddings(
    model_name=model_name, model_kwargs=model_kwargs, encode_kwargs=encode_kwargs
)

如果是本地部署的话,要看一下你是使用的什么软件进行的部署,如果是ollama的话,可以这样:

1
2
3
4
5
from langchain_ollama import OllamaEmbeddings
 
embeddings = OllamaEmbeddings(
    model="bge-large-zh-v1.5",
)


0 回复 有任何疑惑可以回复我~
  • 提问者 qq_江_3 #1
    老师,ollama可以部署embedding模型吗?我在ollama官网搜索bge-large-zh-v1.5,pull到本地了下载量最高的,但是要如何运行呀?我使用ollama run 名称,报错呢。
    回复 有任何疑惑可以回复我~ 2025-02-17 01:50:17
  • 提问者 qq_江_3 #2
    from langchain_ollama import OllamaEmbeddings
     
    embeddings = OllamaEmbeddings(
        model="quentinz/bge-large-zh-v1.5",  # 添加 quentinz/ 前缀
        base_url="http://localhost:11434" 
    )
    
    vector = embeddings.embed_query("你好")
    
    print(vector)
    需要指定base_url,不然提示链接不到ollama,已解决
    回复 有任何疑惑可以回复我~ 2025-02-17 09:46:23
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号