慕课网首页
免费课
实战课
体系课
发现
评价
教程
专栏
手记
商业合作
企业服务
讲师入驻
搜索
热搜
最近搜索
清空
0
登录
/
注册
新人专属
元礼包
| 查看
/
实战课程
/
从0到1训练私有大模型 ,企业急迫需求,抢占市场先机
参数高效微调方法 p-tuningv2
第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 "ChatGLM2" 项目
本章聚焦于低成本且高效的模型微调技术PEFT,包括BitFit、Prefix-Tuning、Prompt-Tuning、P-Tuning、P-Tuning v2及LoRA等方法。以及代码实践了一个使用AdaLoRA训练ChatGLM2的小项目。本章总结了PEFT技术的关键点,为大规模模型的快速适应提供了新思路。
9-5 参数高效微调方法 p-tuningv2
购买后可查看完整视频
从0到1训练私有大模型 ,企业急迫需求,抢占市场先机
难度
进阶
时长
35小时
人数
663
评分
100%
从0到1训练自己的大模型,解锁ChatGPT背后的核心技能与应用
详细了解此课程
讲师
Feng哥是真想教会你
算法工程师
有12年+的互联网从业经验,先后在百度、联想、趣头条、微盟等公司工作过。有超过8年的推荐系统开发经验,期间也有大量的NLP开发经验,例如搜索推荐、文本分类等。 在开课吧兼职过NLP讲师。
微信客服
购课补贴
联系客服咨询优惠详情
帮助反馈
APP下载
慕课网APP
您的移动学习伙伴
公众号
扫描二维码
关注慕课网微信公众号
分销返利
返回顶部