请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

我的想法: 模型越强大,越不需要写详细的提示词. 2. 前端提示词 后端微调,最终目的让模型更专心 . 老师觉得呢

正在回答 回答被采纳积分+3

1回答

tomiezhang 2025-05-04 11:55:19
  1. 的确目前一些模型可以不用写很复杂的提示词,尤其类似deepseek r1 openai-o1这种推理模型,但是transform架构决定了,目前LLM就是基于统计概率猜词,除非底层架构改变,否则短期内提示词是少不了的。

  2. 提示词是为了更好的激发LLM的涌现,它和微调并不不是前后端的关系,微调是增量训练,增加模型的数据库。

1 回复 有任何疑惑可以回复我~
  • 提问者 pookly #1
    微调也是为了让模型更专业吧,把律师相关数据喂给大模型. 前端提示词也是为了让模型更专业,比如说扮演个高级律师xx.
    回复 有任何疑惑可以回复我~ 2025-05-04 13:18:40
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号