从0到1训练私有大模型 ,企业急迫需求,抢占市场先机资源介绍:
深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。
资源目录:
从0到1训练私有大模型 ,企业急迫需求,抢占市场先机 ├── 📁 {1}--第1章 课程介绍 │ ├── 📄 [1.1]--1-1 【导航】课程导学&让你快速了解课程_ev.mp4 (39.64MB) │ ├── 📄 [1.2]--1-2 【内容安排】课程安排和学习建议_ev.mp4 (13.59MB) │ ├── 📄 [1.3]--1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要_ev.mp4 (39.54MB) │ ├── 📄 [1.4]--1-4 【发展史】ChatGPT的简要历史_ev.mp4 (16.34MB) │ └── 📄 [1.5]--1-5 【学习须知】本课程为什么使用gpt2而不是gpt3_ev.mp4 (5.87MB) ├── 📁 {2}--第2章 训练模型与开发平台环境 │ ├── 📄 [2.1]--2-1 【认知】为什么要引入paddle?平时使用torch,学_ev.mp4 (9.13MB) │ ├── 📄 [2.2]--2-2 【框架】paddle和torch与tensorflow对_ev.mp4 (11.15MB) │ ├── 📄 [2.3]--2-3 【NLP工具和预训练模型】paddleNLP和huggi_ev.mp4 (5.62MB) │ ├── 📄 [2.4]--2-4 【平台】介绍aistudio_ev.mp4 (23.93MB) │ └── 📄 [2.5]--2-5 【工具】介绍基于gpt4的IDE cursor_ev.mp4 (19.28MB) ├── 📁 {3}--第3章 chatGPT初始技术词向量原理剖析与实战 │ ├── 📄 [3.10]--3-10 【激活函数】常见七种激活函数对比_ev.mp4 (21.61MB) │ ├── 📄 [3.11]--3-11 【预训练语言模型】RNN-LSTM-ELMO_ev.mp4 (37.75MB) │ ├── 📄 [3.12]--3-12 本章梳理小结_ev.mp4 (5.50MB) │ ├── 📄 [3.1]--3-1 【认知】词向量,词向量与gpt的关系_ev.mp4 (8.72MB) │ ├── 📄 [3.2]--3-2 【语言模型】语言模型和评估指标PPL_ev.mp4 (23.18MB) │ ├── 📄 [3.3]--3-3 【词向量模型】word2vec-cbow和skipgra_ev.mp4 (14.53MB) │ ├── 📄 [3.4]--3-4 【softmax加速】是softmax 树型优化_ev.mp4 (25.76MB) │ ├── 📄 [3.5]--3-5 【softmax加速】softmax负采样优化_ev.mp4 (20.85MB) │ ├── 📄 [3.6]--3-6 【数据准备与预处理】word2vec实战(1)_ev.mp4 (57.20MB) │ ├── 📄 [3.7]--3-7 【数据准备与预处理】word2vec实战(2)_ev.mp4 (31.50MB) │ ├── 📄 [3.8]--3-8 【模型训练】word2vec实战-模型开发和训练(1)_ev.mp4 (25.01MB) │ └── 📄 [3.9]--3-9 【模型训练】word2vec实战-模型开发和训练(2)_ev.mp4 (35.64MB) ├── 📁 {4}--第4章 chatGPT基石模型——基于Transformer架构的语言模型 │ ├── 📄 [4.10]--4-10 transformer-xl解决长序列的问题(2)_ev.mp4 (27.97MB) │ ├── 📄 [4.11]--4-11 本章梳理总结_ev.mp4 (6.76MB) │ ├── 📄 [4.1]--4-1 本章介绍_ev.mp4 (2.18MB) │ ├── 📄 [4.2]--4-2 seq2seq结构和注意力_ev.mp4 (23.75MB) │ ├── 📄 [4.3]--4-3 seq2seq-attention的一个案例_ev.mp4 (11.11MB) │ ├── 📄 [4.4]--4-4 transformer的multi-head atten_ev.mp4 (39.60MB) │ ├── 📄 [4.5]--4-5 transformer的残差链接-解决梯度消失问题_ev.mp4 (12.56MB) │ ├── 📄 [4.6]--4-6 transformer的layernorm-归一化提升训_ev.mp4 (10.75MB) │ ├── 📄 [4.7]--4-7 transformer的decoder 解码器_ev.mp4 (14.68MB) │ ├── 📄 [4.8]--4-8 sparse-transformer 稀疏模型_ev.mp4 (11.23MB) │ └── 📄 [4.9]--4-9 transformer-xl 解决长序列的问题(1)_ev.mp4 (26.78MB) ├── 📁 {5}--第5章 基于Transformer另一分支Bert系列分析与实战 │ ├── 📄 [5.10]--5-10 bert(transformer encoder)主要_ev.mp4 (44.74MB) │ ├── 📄 [5.11]--5-11 bert(transformer encoder)的完_ev.mp4 (91.56MB) │ ├── 📄 [5.12]--5-12 Ernie文心一言基础模型(1)_ev.mp4 (26.20MB) │ ├── 📄 [5.13]--5-13 Ernie文心一言基础模型(2)_ev.mp4 (13.12MB) │ ├── 📄 [5.14]--5-14 plato百度对话模型(1)_ev.mp4 (28.03MB) │ ├── 📄 [5.15]--5-15 plato 百度对话模型(2)_ev.mp4 (29.35MB) │ ├── 📄 [5.16]--5-16 本章总结_ev.mp4 (12.74MB) │ ├── 📄 [5.1]--5-1 本章介绍_ev.mp4 (1.87MB) │ ├── 📄 [5.2]--5-2 metric-评估指标(BLUE-rouge-L-MET_ev.mp4 (34.23MB) │ ├── 📄 [5.3]--5-3 常见 subword 算法(BPE-wordpiece)_ev.mp4 (10.25MB) │ ├── 📄 [5.4]--5-4 常见的NLP任务_ev.mp4 (10.50MB) │ ├── 📄 [5.5]--5-5 bert 预训练模型_ev.mp4 (41.76MB) │ ├── 📄 [5.6]--5-6 bert情感分析实战----paddle(1)_ev.mp4 (53.22MB) │ ├── 📄 [5.7]--5-7 bert情感分析实战----paddle(2)_ev.mp4 (57.61MB) │ ├── 📄 [5.8]--5-8 evaluate和predict方法----paddle_ev.mp4 (30.47MB) │ └── 📄 [5.9]--5-9 bert(transformer encoder)主要源_ev.mp4 (45.19MB) ├── 📁 {6}--第6章 chatGPT的核心技术——强化学习 │ ├── 📄 [6.10]--6-10 actor-critic(2)_ev.mp4 (12.06MB) │ ├── 📄 [6.11]--6-11 TRPO+PPO(1)_ev.mp4 (40.93MB) │ ├── 📄 [6.12]--6-12 TRPO+PPO(2)_ev.mp4 (28.62MB) │ ├── 📄 [6.13]--6-13 DQN代码实践--torch-1_ev.mp4 (44.11MB) │ ├── 📄 [6.14]--6-14 DQN代码实践--torch-2_ev.mp4 (49.49MB) │ ├── 📄 [6.15]--6-15 DoubleDQN+DuelingDQ代码--torc_ev.mp4 (52.98MB) │ ├── 📄 [6.16]--6-16 REINFORCE代码--torch_ev.mp4 (47.87MB) │ ├── 📄 [6.17]--6-17 PPO代码实践--torch_ev.mp4 (65.55MB) │ ├── 📄 [6.18]--6-18 强化学习-本章总结_ev.mp4 (16.85MB) │ ├── 📄 [6.1]--6-1 RL是什么&为什么要学习RL_ev.mp4 (21.46MB) │ ├── 📄 [6.2]--6-2 强化学习章介绍_ev.mp4 (4.41MB) │ ├── 📄 [6.3]--6-3 RL基础概念_ev.mp4 (12.17MB) │ ├── 📄 [6.4]--6-4 RL马尔可夫过程_ev.mp4 (28.77MB) │ ├── 📄 [6.5]--6-5 RL三种方法(1)_ev.mp4 (30.12MB) │ ├── 📄 [6.6]--6-6 RL三种方法(2)_ev.mp4 (10.65MB) │ ├── 📄 [6.7]--6-7 DQN和DQN的2种改进算法(1)_ev.mp4 (20.26MB) │ ├── 📄 [6.8]--6-8 DQN和DQN的2种改进算法(2)_ev.mp4 (24.63MB) │ └── 📄 [6.9]--6-9 actor-critic(1)_ev.mp4 (38.68MB) ├── 📁 {7}--第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化 │ ├── 📄 [7.10]--7-10 Antropic LLM大型语言模型_ev.mp4 (40.83MB) │ ├── 📄 [7.11]--7-11 GPT-本章总结_ev.mp4 (12.89MB) │ ├── 📄 [7.1]--7-1 GPT1 模型_ev.mp4 (25.22MB) │ ├── 📄 [7.2]--7-2 GPT2 模型_ev.mp4 (25.93MB) │ ├── 📄 [7.3]--7-3 GPT3 模型-1_ev.mp4 (31.94MB) │ ├── 📄 [7.4]--7-4 GPT3 模型-2_ev.mp4 (28.06MB) │ ├── 📄 [7.5]--7-5 gpt-codex 基于GPT技术开发的模型_ev.mp4 (23.54MB) │ ├── 📄 [7.6]--7-6 alphaCode基于GPT技术开发的模型-1_ev.mp4 (28.90MB) │ ├── 📄 [7.7]--7-7 alphaCode基于GPT技术开发的模型-2_ev.mp4 (16.84MB) │ ├── 📄 [7.8]--7-8 instruct-gpt 基于GPT技术开发的模型-1_ev.mp4 (21.78MB) │ └── 📄 [7.9]--7-9 instruct-gpt 基于GPT技术开发的模型-2_ev.mp4 (27.07MB) └── 📁 {8}--第8章 RLHF训练类ChatGPT模型代码实战 ├── 📄 [8.10]--8-10 RLHF强化学习人类反馈的训练-model-base_ev.mp4 (24.08MB) ├── 📄 [8.11]--8-11 RLHF强化学习人类反馈的训练-model-opt_ev.mp4 (13.28MB) ├── 📄 [8.13]--8-13 RLHF强化学习人类反馈的训练-generation(_ev.mp4 (48.79MB) ├── 📄 [8.14]--8-14 RLHF强化学习人类反馈的训练-exp_maker(1_ev.mp4 (32.05MB) ├── 📄 [8.15]--8-15 RLHF强化学习人类反馈的训练-exp_maker(2_ev.mp4 (43.19MB) ├── 📄 [8.16]--8-16 RLHF强化学习人类反馈的训练-buffer-util_ev.mp4 (56.03MB) ├── 📄 [8.17]--8-17 RLHF强化学习人类反馈的训练-buffer-loss_ev.mp4 (45.66MB) ├── 📄 [8.19]--8-19 RLHF强化学习人类反馈的训练-main_ev.mp4 (68.91MB) ├── 📄 [8.1]--8-1 chatGPT训练实战_ev.mp4 (13.24MB) ├── 📄 [8.2]--8-2 SFT有监督的训练-数据处理_ev.mp4 (63.07MB) ├── 📄 [8.3]--8-3 SFT有监督训练-trainer_ev.mp4 (37.66MB) ├── 📄 [8.4]--8-4 SFT有监督训练-train_ev.mp4 (63.73MB) ├── 📄 [8.5]--8-5 RM训练-model+dataset(1)_ev.mp4 (27.00MB) ├── 📄 [8.6]--8-6 RM训练-model+dataset(2)_ev.mp4 (25.81MB) ├── 📄 [8.7]--8-7 RM训练-trainer_ev.mp4 (31.29MB) ├── 📄 [8.8]--8-8 RM训练-train-rm_ev.mp4 (35.55MB) └── 📄 [8.9]--8-9 RLHF强化学习人类反馈的训练-dataset_ev.mp4 (14.38MB)
此隐藏内容仅限VIP查看升级VIP