采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
langchain如何调用ollama本地模型?
课程里有演示了,基本上两种方法。1. 直接使用langchain-ollama:
from
langchain_ollama
import
ChatOllama
llm
=
ChatOllama(
model
"llama3"
,
temperature
0.8
num_predict
256
# 其他参数...
)
不过这种问题比较多,比如版本兼容问题等。
2. 使用langchain-openai,这种方式的前提是ollama上跑的模型要遵从openai的API格式,理论上大部分模型都是可以的
langchain_openai
ChatOpenAI
ChatOpenAI(model
“ollama运行的模型名”,api_key
"123"
,base_url
"
微调后的本地化模型langchain用ollama方式调用?
可以用ollama来调用,但是需要注意,你微调的模型本身是否支持结构化输出、支持工具调用等,这些都会影响实际的使用,尤其有时候你的模型的API接口不是遵循openai的api sdk格式,那么你还要自己去包装自定义的LLM接口才可以使用
登录后可查看更多问答,登录/注册
AI Agent从0到1定制开发 全栈技术+全流程+企业级落地实战
66 6
36 3
35 3
28 3
23 3
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号