参数高效微调方法 p-tuningv2

第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 "ChatGLM2" 项目

本章聚焦于低成本且高效的模型微调技术PEFT,包括BitFit、Prefix-Tuning、Prompt-Tuning、P-Tuning、P-Tuning v2及LoRA等方法。以及代码实践了一个使用AdaLoRA训练ChatGLM2的小项目。本章总结了PEFT技术的关键点,为大规模模型的快速适应提供了新思路。
9-5 参数高效微调方法 p-tuningv2
购买后可查看完整视频

从0到1训练私有大模型 ,企业急迫需求,抢占市场先机

  • 难度 进阶
  • 时长 35小时
  • 人数 663
  • 评分 100%

从0到1训练自己的大模型,解锁ChatGPT背后的核心技能与应用

详细了解此课程
讲师
Feng哥是真想教会你
算法工程师
有12年+的互联网从业经验,先后在百度、联想、趣头条、微盟等公司工作过。有超过8年的推荐系统开发经验,期间也有大量的NLP开发经验,例如搜索推荐、文本分类等。 在开课吧兼职过NLP讲师。
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号