视频选集 1.课程介绍 2.第一周介绍 3.生成式AI与大型语言模型 4.大型语言模型的应用场景与任务 5.文本生成 6.Transformer架构 7-使用Transformers生成文本 8.提示与提示工程 9.生成式配置 10.生成式AI项目生命周期 11.AWS实验室介绍 12.实验1讲解 13.预训练大型语言模型 14.训练的计算挑战 15.可选视频-高效多GPU计算 16.扩展定律与计算最优模型 17.领域适应的预训练 18.第二周介绍 19.指令微调 20.单一任务上的微调 21.多任务指令微调 22.模型评估 23.基准测试 24.参数高效微调(PEFT) 25.PEFT技术1- LoRA 26.PEFT技术2- 软提示 27.实验2讲解 28.第三周介绍 29.使模型与人类价值观对齐 30.从人类反馈中强化学习 31.RLHF- 获取人类反馈 32.RLHF- 奖励模型 33.RLHF- 使用强化学习微调 34.可选视频- 近端策略优化 35.RLHF- 奖励欺骗 36.扩展人类反馈 37.实验3讲解 38.部署的模型优化 39.生成式AI项目生命周期速查表 40.在应用中使用大型语言模型 41.与外部应用交互 42.帮助大型语言模型推理和规划 43.程序辅助语言模型(PAL) 44.ReAct- 结合推理与行动 45.大型语言模型应用架构 46.可选视频- AWS Sagemaker JumpStart 47.负责任的人工智能 48.课程总结