采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
的确目前一些模型可以不用写很复杂的提示词,尤其类似deepseek r1 openai-o1这种推理模型,但是transform架构决定了,目前LLM就是基于统计概率猜词,除非底层架构改变,否则短期内提示词是少不了的。
提示词是为了更好的激发LLM的涌现,它和微调并不不是前后端的关系,微调是增量训练,增加模型的数据库。
微调也是为了让模型更专业吧,把律师相关数据喂给大模型. 前端提示词也是为了让模型更专业,比如说扮演个高级律师xx.
登录后可查看更多问答,登录/注册
AI Agent从0到1定制开发 全栈技术+全流程+企业级落地实战
1.1k 7
604 6
234 5
102 5
798 4
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号