课程里有演示了,基本上两种方法。
1. 直接使用langchain-ollama:
from langchain_ollama import ChatOllama
llm = ChatOllama(
model = "llama3",
temperature = 0.8,
num_predict = 256,
# 其他参数...
)
不过这种问题比较多,比如版本兼容问题等。
2. 使用langchain-openai,这种方式的前提是ollama上跑的模型要遵从openai的API格式,理论上大部分模型都是可以的
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model=“ollama运行的模型名”,api_key="123",base_url="