可以的,可以安装langchain-deepseek依赖包,使用deepseek的api来调用LLM组件,如果你是本地部署的话,推荐使用ollama来部署,然后使用langchain-ollama 依赖包来调用LLM,具体步骤如下:
1. 安装ollama后拉取deepseek模型。
2. 使用ollama serve来后台启动。
3. from langchain_ollama import ChatOllama
llm = ChatOllama(
model="deepseek:7b",
temperature=0,
# other params...
)