本章主要对整体课程内容进行全面介绍,包括课程内容安排、课程收获、亮点优势以及适合人群等。让大家短时间内快速了解课程内容。
本章将为你揭开大语言模型(LLM)的神秘面纱,让你清晰地了解它是什么、擅长什么、从何而来、又将去向何方,使你对这个颠覆时代的“黑科技”建立起宏观且深刻的认知框架,从而为构建整个知识体系打下坚实地基。
兵马未动,粮草先行。一个稳定、高效的开发环境是通往成功的加速器。本章将手把手带你配置专业级的LLM开发“驾驶舱”,从Conda环境隔离到PyTorch的GPU加速配置,再到Jupyter Lab的深度集成。为你构建一个可复现、可扩展的坚实工程基础,让你的每一次实验都赢在起跑线上。
理论的尽头是实践。本章将带领你从“旁观者”转变为“创造者”,首次亲手“驯服”一个真正的大语言模型。我们将深入HuggingFace生态系统的核心,利用其强大的Transformers库对经典的GPT-2模型进行微调(Fine-tuning)。当看到模型在你自己的数据上生成文本时,那种“造物主”般的成就感,将是你坚持下去的最大动力!
如何与强大的LLM高效协作,让它成为你学习和研究的超级外脑?本章将揭示与ChatGPT、Copilot等工具对话的“魔法咒语”——提示工程(Prompt Engineering)的核心技巧。你将学会如何提出精准的问题,设计巧妙的提示,让AI的输出质量实现指数级提升。这不仅是工具使用课,更是未来人机协同的必备技能。
万丈高楼平地起,坚实的编程基础是驾驭AI的绝对前提。本章专为编程新手设计,我们将以最精准、最有效的方式,带你快速掌握构建AI模型所必需的Python核心语法与数据结构,并无缝衔接到PyTorch张量(Tensor)操作。我们不求面面俱到,只为你精炼出“弹药库”里最关键的武器。
AI如何“思考”?神经网络的“神经”究竟是什么?本章将带你直击深度学习的心脏,用最直观的方式理解反向传播、梯度下降、激活函数等核心概念。你将不再是“调包侠”,而是能从数学和逻辑层面洞悉模型训练本质的“内行人”,为你后续理解复杂模型扫清一切障碍。
为什么你的模型效果总是不如人意?欢迎来到“炼丹”的世界。本章将传授你一套系统性的模型优化方法论,从学习率的动态调整到过拟合与欠拟合的精准诊断,再到正则化、Dropout等“独门秘技”。掌握这些,你将拥有点石成金的能力,将一个平庸的模型调教成性能卓越的“神器”。
是时候让你的代码真正“活”起来了!本章将带领你从零开始,完整地构建、训练并评估一个经典的手写数字识别模型。你将亲历数据加载、模型设计、训练循环、精度验证的全过程。这不仅是一次代码实践,更是一次完整的科研流程模拟,是你建立AI项目全局观的里程碑。
高质量的数据是训练强大模型的“燃料”。本章将赋予你获取“燃料”的能力。我们将从网络爬虫技术入手,教你如何精准、合法地抓取互联网上的公开文本数据,并传授你一套完整的数据清洗、去重与格式化流程。拥有了高质量的私有数据集,你就拥有了打造专属模型的“王牌”。
文字如何转化为机器可以理解的数学语言?答案就在“分词”(Tokenization)。本章将深入探讨从传统N-gram到现代BPE(Byte-Pair Encoding)等主流分词算法的内部原理。你将深刻理解词汇表(Vocabulary)的构建、未知词(UNK)的处理,这是进入自然语言处理(NLP)领域不可或缺的核心知识。
是什么让Transformer架构拥有了颠覆性的力量?答案是“注意力机制”(Attention Mechanism)。本章将为你“画龙点睛”,深入剖析自注意力(Self-Attention)的数学原理与计算过程,解释Query、Key、Value的深刻内涵。理解了它,你就掌握了现代所有主流大模型的灵魂。
准备好迎接一场思想的革命!本章将逐行代码、逐个模块地为你解构Transformer的完整架构。从位置编码(Positional Encoding)的巧思,到编码器-解码器(Encoder-Decoder)的宏伟设计,再到多头注意力机制的并行威力。学完本章,你将能“手撕”Transformer,其内部的每一个细节都将对你再无秘密可言。
这是理论与实践交汇的辉煌时刻!在本章中,我们将综合运用前面所学的所有知识,从分词器到模型架构,从训练循环到文本生成,从零开始亲手构建一个完整的、虽然“迷你”但五脏俱全的GPT模型。这不仅是对你学习成果的终极检验,更是你简历上最有分量的项目,是你作为LLM工程师的“勋章”!
一个强大的通用大模型,如同一个知识渊博的通才,但如何令其成为特定垂直领域的顶尖专家?本章将揭示实现这一转变的核心技术——模型微调(Fine-tuning)。我们将深入实践,以经典的文本分类任务为靶点,带你驾驭从数据准备到训练优化的全流程,将模型的通用智慧,精准地“雕琢”成解决特定商业问题的锋利武器。学完本章,你将掌握让AI产生实际商业价值的“最后一公里”的关键技能。
当庞大而强悍的“教师模型”因其高昂的部署成本而受限时,我们如何将其深邃的智慧传承给轻巧、高效的“学生模型”?本章将带你深入探索模型压缩领域的优雅艺术——知识蒸馏。你将洞悉其背后的核心原理,学习如何设计损失函数以实现知识的无缝迁移,从而在几乎不损失性能的前提下,实现推理效率的指数级提升。这不仅是技术,更是通往模型工程化与普惠化部署的必由之路。
“模型幻觉”是悬在所有大语言模型应用头顶的达摩克利斯之剑。本章将为你献上解决这一业界核心痛点的终极“利器”——检索增强生成(RAG)。我们将深入剖析RAG架构的内在机理,让你掌握如何将外部、实时的知识库与模型生成能力进行动态耦合,为其插上名为“事实”的记忆之翼。掌握RAG,意味着你将能构建出真正可靠、可信、可溯源的企业级AI应用。
如果说语言生成是LLM的当前形态,那么“行动”则是其不可逆转的终极进化。本章将带你踏入当前AI研究的最前沿——智能体(Agent)的世界。我们将解构Agent的核心框架,让你理解模型如何超越文本的束缚,通过任务规划、工具调用与自主执行,成为能够与数字甚至物理世界交互的“行动者”。这不仅是技术的跃迁,更是你对AI未来形态的认知革命。
本章主要对整体课程内容进行全面总结,梳理课程重难点,帮助大家更好地吸收课程内容,达到最佳学习效果。
选课、学习遇到问题?
扫码添加指导老师 1V1 帮助你!
添加后老师会第一时间解决你的问题