请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

正在回答 回答被采纳积分+3

1回答

tomiezhang 2025-02-14 23:16:04

可以的,可以安装langchain-deepseek依赖包,使用deepseek的api来调用LLM组件,如果你是本地部署的话,推荐使用ollama来部署,然后使用langchain-ollama 依赖包来调用LLM,具体步骤如下:

1. 安装ollama后拉取deepseek模型。

2. 使用ollama serve来后台启动。

3. from langchain_ollama import ChatOllama

llm = ChatOllama(

model="deepseek:7b",

temperature=0,

# other params...

)

0 回复 有任何疑惑可以回复我~
  • 老师,可以通过LM studio启动模型吗?我看LM studio有对局域网的api,langchain如何通过api地址调用模型呀?
    回复 有任何疑惑可以回复我~ 2025-02-16 01:06:17
  • tomiezhang 回复 qq_江_3 #2
    LM studio没有官方包,社区里好像也没有看到有接入langchain的实践,如果你需要的话,可能需要自行根据langchain的封装要求封装了,这里有一个使用自定义模型提供者进行langchain接口封装的例子:https://python.langchain.com/docs/how_to/custom_chat_model/
    回复 有任何疑惑可以回复我~ 2025-02-17 00:27:10
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号