课程介绍

适合人群:

寻求转型的开发者/程序员 垂直行业从业者(非纯技术背景) 高校学生与科研人员 企业技术负责人/CTO/产品经理 AI爱好者与创业者

你将会学到:

对大模型微调技术有深度的理解,并能真正落地到企业级项目里!

试看链接  https://pan.baidu.com/s/1P0cVcSI_DKA7A9bNdM52gw?pwd=hvmh

相关推荐

AI大模型技术体系课

第五期-AI大模型零基础到商业实战全栈课(完结)

AI大模型算法-从大模型原理剖析到训练(微调)落地实战(完结)

课程目录

第1章 AI大模型微调项目实战课课程介绍

1-100 AI大模型微调项目实战课介绍

第2章 大模型高效微调原理剖析

2-101 高效微调原理之什么场景需要微调?
2-202 高效微调原理之什么场景需要RAG?
2-303 高效微调原理之微调和全量微调的区别
2-404 高效微调原理之预训练的流程
2-505 高效微调原理之预训练的两个挑战
2-606 高效微调原理之预训练之网络通信
2-707 高效微调原理之预训练之数据并行
2-808 高效微调原理之预训练之模型并行
2-909 高效微调原理之预训练之3D并行
2-1010 高效微调原理之微调步骤
2-1111 高效微调原理之LoRA原理
2-1212 高效微调原理之QLoRA原理

第3章 大模型强化学习原理剖析

3-11 强化学习微调之什么是强化学习?
3-22 强化学习微调之什么是PPO?
3-33 强化学习微调之什么是RLHF?
3-44 强化学习微调之什么是DPO?
3-55 强化学习微调之什么是GRPO?

第4章 大模型训练数据工程

4-101 大模型微调数据的重要性
4-202 大模型微调数据格式划分
4-303 大模型微调预训练数据集
4-404 大模型微调SFT数据集
4-505 大模型微调偏好数据集
4-606 大模型微调COT数据集
4-707 大模型微调数据集生成实战
4-808 大模型微调数据集工具部署
4-909 大模型微调数据集构建实操-构建SFT数据集
4-1010 大模型微调数据集构建实操-构建COT数据集
4-1111 大模型微调数据集构建实操-构建偏好数据集

第5章 Llama-Factory微调实战

5-11 Llama-Factory微调之项目介绍
5-22 Llama-Factory微调之项目安装
5-33 Llama-Factory微调之模型和数据准备
5-44 Llama-Factory微调之LoRa微调实战
5-55 Llama-Factory微调之模型效果验证
5-66 Llama-Factory微调之核心参数剖析
5-77 Llama-Factory微调之接入Tensor
5-88 Text2SQL模型微调之数据集格式说明
5-99 Text2SQL模型微调之数据集准备
5-1010 Text2SQL模型微调之数据处理
5-1111 Text2SQL模型微调之数据集注册
5-1212 Text2SQL模型微调之微调实战
5-1313 Text2SQL模型微调之模型效果校验
5-1414 Text2SQL模型微调之什么是DeepSpe
5-1515 Text2SQL模型微调之基于DeepSpee

第6章 大模型蒸馏小模型案例实战

6-101 模型蒸馏之蒸馏和微调的本质区别
6-202 模型蒸馏之微调和全量微调的本质区别
6-303 模型蒸馏之为什么蒸馏方案突然火了起来?
6-404 模型蒸馏之模型推理能力的重要性
6-505 模型蒸馏之蒸馏流程剖析
6-606 模型蒸馏之全量微调工具推荐
6-707 模型蒸馏之资源评估和服务器租赁
6-808 模型蒸馏之基础模型下载
6-909 模型蒸馏之全量微调工具安装部署
6-1010 模型蒸馏之蒸馏数据格式说明
6-1111 模型蒸馏之基础模型效果测试
6-1212 模型蒸馏之蒸馏数据集准备
6-1313 模型蒸馏之基于Llama-Factory进行全
6-1414 模型蒸馏之模型蒸馏前后效果对比

第7章 微调Embedding模型实战

7-101 Embedding模型微调之RAG痛点分析
7-202 Embedding模型微调之适用场景剖析
7-303 Embedding模型微调之基础模型选型
7-404 Embedding模型微调之数据集准备
7-505 Embedding模型微调之技术方案选型
7-606 Embedding模型微调之环境准备
7-707 Embedding模型微调之基础模型校验
7-808 Embedding模型微调之数据集校验
7-909 Embedding模型微调之数据集清洗
7-1010 Embedding模型微调之微调流程演示
7-1111 Embedding模型微调之微调数据准备核心逻
7-1212 Embedding模型微调之微调核心代码
7-1313 Embedding模型微调之微调效果检验

第8章 大型企业金融大模型微调实战

8-101 整体项目之项目背景
8-202 整体项目之项目需求
8-303 整体项目之技术方案
8-404 SFT微调之微调技术流程
8-505 SFT微调之数据集选择
8-606 SFT微调之模型选型
8-707 SFT微调之微调方案选型
8-808 SFT微调之数据集构建-数据集解析
8-909 SFT微调之数据集构建-数据构建策略
8-1010 SFT微调之数据集构建-单轮数据集构建
8-1111 SFT微调之数据集构建-多轮数据集构建
8-1212 SFT微调之LoRa微调-微调技术方案选型
8-1313 SFT微调之LoRa微调-微调技术方案设计思考
8-1414 SFT微调之LoRa微调-微调环境构建
8-1515 SFT微调之LoRa微调-微调基座模型下载
8-1616 SFT微调之LoRa微调-数据样本初始化(1)
8-1717 SFT微调之LoRa微调-数据处理(2)
8-1818 SFT微调之LoRa微调-LoRA参数配置(3)
8-1919 SFT微调之LoRa微调-SFT微调参数配置(4)
8-2020 SFT微调之LoRa微调-创建数据整理器(5)
8-2121 SFT微调之LoRa微调-基础模型加载(6)
8-2222 SFT微调之LoRa微调-模型评估内存优化回调
8-2323 SFT微调之LoRa微调-best模型保存函数
8-2424 SFT微调之LoRa微调-最后模型保存函数(9)
8-2525 SFT微调之LoRa微调-模型微调的早停机制(10)
8-2626 SFT微调之LoRa微调-微调的checkpoint(11)
8-2727 SFT微调之LoRa微调-DeepSeed分布式(12)
8-2828 SFT微调之LoRa微调-TensorBoard(13)
8-2929 SFT微调之LoRa微调-核心监控指标之train(14)
8-3030 SFT微调之LoRa微调-核心监控指标之eval(15)
8-3131 SFT微调之LoRa微调-核心监控指标之learn(16)
8-3232 SFT微调之LoRa微调-核心监控指标之grad(17)
8-3333 SFT微调之LoRa微调-多轮对话微调数据处理
8-3434 SFT微调之LoRa微调-微调效果评估之ROUGE
8-3535 SFT微调之LoRa微调-微调效果评估之Perplexity
8-3636 SFT微调之LoRa微调-微调效果评估之评估效果
8-3737 SFT微调之LoRa微调-微调效果评估之SFT
8-3838 奖励模型之需求背景分析
8-3939 奖励模型之为什么选GRPO?
8-4040 奖励模型之为什么GRPO必须微调奖励模型?
8-4141 奖励模型之整体流程设计
8-4242 奖励模型之微调数据集构建方案思考
8-4343 奖励模型之微调数据集构建策略
8-4444 奖励模型之微调数据集构建脚本执行
8-4545 奖励模型之奖励模型训练路径分析
8-4646 奖励模型之基于RewardBench排行榜选型
8-4747 奖励模型之奖励模型选型
8-4848 奖励模型之微调方案技术选型
8-4949 多机多卡环境之方案设计
8-5050 多机多卡环境之分布式推理部署方案设计
8-5151 多机多卡环境之主机规划
8-5252 多机多卡环境之多机免密
8-5353 多机多卡环境之conda环境安装
8-5454 多机多卡环境之开源模型下载
8-5555 多机多卡环境之同步虚拟环境
8-5656 多机多卡环境之创建共享目录
8-5757 多机多卡环境之pdsh工具安装
8-5858 多机多卡环境之设置hosts地址
8-5959 多机多卡环境之Ray集群启动
8-6060 多机多卡环境之模型分布式推理测试
8-6161 多机多卡环境之分布式微调环境构建
8-6262 奖励模型之项目脚本设计
8-6363 奖励模型之奖励模型微调思路
8-6464 奖励模型之全流程代码设计
8-6565 奖励模型之开源奖励模型安装部署
8-6666 奖励模型之多机多卡分布式微调演练