课程简介
本课程专为有志于掌握大语言模型全栈开发的技术学习者设计,系统覆盖从Python编程、PyTorch框架到前沿Transformer与LLaMA架构的完整知识体系。课程第一部分夯实Python基础,涵盖数据类型、控制流、函数、面向对象编程及NumPy、Pandas等科学计算库,为后续深度学习打下坚实基础。第二部分深入PyTorch框架,从张量操作、自动微分、神经网络构建到RNN、DNN实战,并逐步过渡到Transformer核心组件(注意力机制、位置编码、层归一化等),通过手撕代码理解底层原理。第三部分聚焦LLaMA等大模型,详解Decoder-only架构、RMSNorm、旋转位置编码、KV缓存等关键实现,并涵盖OpenAI API调用、提示工程、指令微调等实用技能。学员将完成从单层网络到多分类、从RNN到Transformer的完整项目,最终具备独立实现和优化大模型的能力。课程提供丰富代码、视频讲解及实战案例,适合具备基础编程概念、希望进入AI大模型领域的开发者。
下载地址
课程目录
01 张量与神经网络基础
第1–6节:张量创建、运算、梯度与优化方法
02 单层与多层神经网络
第7–15节:神经网络原理、PyTorch实现、分类与回归
03 深度学习与不可解释性
第16–21节:异或门、激活函数、深度网络正向传播
04 预习课:账号与工具准备
第22–25节:Gmail、OpenAI账号、ChatGPT注册与防封
05 大语言模型与提示工程
第26–34节:模型能力、提示方法、Few-shot与CoT
06 Chat Completion模型与API
第35–42节:模型介绍、API参数、对话机器人创建
07 指令翻译项目与建模
第43–46节:SCAN数据集、Few-shot-LtM流程、完整建模
08 预训练与Tokenizer
第47–53节:环境准备、数据集、Tokenizer训练、LLaMA预训练
第54–69节:注意力本质、多头机制、位置编码、编码器与解码器
10 LLaMA架构详解
第70–78节:Decoder架构、Embedding、RMSNorm、RoPE、KV缓存
11 Python基础入门
第79–100节:变量、数值、字符串、列表、元组、字典、集合
12 Python控制流与函数
第101–110节:判断、循环、函数定义、参数、作用域、lambda
13 Python面向对象与NumPy
第111–120节:类、继承、NumPy数组、广播、Pandas入门
14 RNN与NLP入门
第121–132节:时间序列、文本分词、RNN架构、双向RNN、情感分类
15 RNN缺陷与反向传播
第133–136节:RNN反向传播、梯度问题、文本生成任务
16 神经网络损失与优化
第137–142节:交叉熵损失、梯度下降、动量法、batch与epoch
17 完整神经网络项目实战
第143–146节:Fashion-MNIST数据集、完整网络实现与训练
--- 点击展开详细目录 ---
|