采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
# 2.调用语言模型获取响应内容 message = await self._invoke_llm( [{"role": "user", "content": query}], format, )
老师这里的_invoke_llm()调用 llm 的 invoke(),messages参数都是当前这一条,不是应该包含历史消息吗?
老师,我也遇到此问题了,如何解决~
找到这个文件base_agent,原先直接传递messages改成从memory中获取messages即可,在后面的课时中已经修复了这个功能了(15章),示例如下: # 4.调用语言模型获取响应内容 message = await self._llm.invoke( messages=self._memory.get_messages(), tools=self._get_available_tools(), response_format=response_format, tool_choice=self._tool_choice, )
这个未知的self._invoke_llm传递的messages,的确是应该从memory中取出来,在第15章的时候上下文工程统一修复解决啦(以往的bug、测试、还有prompt的一些优化):
好的,谢谢老师,催更催更
登录后可查看更多问答,登录/注册
MCP+A2A 从0到1构建商业级多Agent全栈应用
44 7
182 5
135 5
34 4
203 4
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号