UP主: 封面: 简介:【视频相关教材、学习路线、GitHub项目、实战案例集、电子书+问题解答请看 ”置顶” 自取哦】本套教程从零开始讲解,手把手教学,包含Python快速入门、AI开发环境搭建及提...
视频选集 1-1-1 课程导学【快速了解课程与安排】 1-2-1 章节介绍 1-2-2 什么是大语言模型(LLM) 1-2-3 LLM在企业中的价值与市场需求 1-2-4 ChatGPT聊天机器人的使用与局限性 1-2-5 大语言模型如何影响软件的构建 1-2-6 LLM应用开发专有名词解释 1-2-7 LLM&AI Agent应用的交互模式 1-2-8 章节总结 1-3-1 章节介绍 1-3-2 从LLM大模型到AI Agent的技术演进 1-3-3 初识LLMOps,为什么需要LLMOps 1-3-4 Dify LLMOps应用开发平台功能演示 1-3-5 LLMOPs项目需求拆分与设计 1-3-6 课程LLMOps应用开发平台演示 1-3-7 课程学习目标与解决的问题展示 1-4-1 章节介绍 1-4-2 不同方向的学员如何学习这门课程与建议 1-4-3 ChatGPT辅助学习与课程提示词 1-4-4 OpenAI&月之暗面API秘钥获取与参数详解 1-4-5 Playground快速调试Prompt与接口参数 1-4-6 章节总结 2-1-1 章节介绍 2-1-2 Python环境搭建与配置镜像加速 2-1-3 PyCharm编辑器配置与插件安装 2-1-4 项目架构与基础框架选择 2-1-5 项目目录结构约定、规范与依赖注入 2-1-6 依赖库介绍、安装与测试 2-1-7 Postman基础配置与使用介绍 2-1-8 几种环境下的Postgres数据库安装 2-1-9 本章总结 2-2-1 章节介绍 2-2-2 30行代码实现一个聊天机器人API 2-2-3 校验API接口输入请求 2-2-4 统一响应接口设计与实现 2-2-5 异常错误状态统一设计与实现 2-2-6 PyTest配置与API测试用例 2-2-7 Flask-SQLAlchemy扩展的配置与使用 2-2-8 应用ORM模型的创建与增删改查 2-2-9 重写SQLAlchemy核心类实现自动提交 2-2-10 Flask-Migrate扩展介绍与使用 2-2-11 本章总结 2-3-1 章节介绍 2-3-2 LangChain简介及为什么选择LangChain? 2-3-3 LangChain框架安装及文档介绍 2-3-4 Prompt组件及使用技巧 2-3-5 Model组件及使用技巧 2-3-6 OutputParser组件及使用技巧(1) 2-3-7 LCEL表达式与Runnable可运行协议 2-3-8 两个Runnable核心类的讲解与使用 2-3-9 利用回调功能调试链应用-让过程更透明 2-3-10 LangSmith平台介绍与使用-从原型到生产 2-3-11 API接口文档介绍与接口统一 2-3-12 项目Git版本管理与控制 2-3-13 本章总结 3-1-1 本章介绍 3-1-2 Node.js环境搭建及镜像加速 3-1-3 项目前端架构与基础框架选择 3-1-4 前端项目搭建与开发规范 3-1-5 WebStorm编辑器配置-提升TS代码开发效率 3-1-6 ArcoDesign与TailwindCSS简化UI界面 3-1-7 项目页面模板与路由配置,实现路由守卫功能 3-1-8 Pinia实现多页面共享数据状态(1) 3-1-9 前端接口请求Fetch方法封装 3-2-1 本章介绍 3-2-2 解决前后端分离接口跨域问题 3-2-3 即时设计 UI 设计稿快速上手与解读 3-2-4 应用编排页面结构与样式设计 3-2-5 对接API实现第一个带UI的基础聊天机器人 3-2-6 应用调试与预览功能封装与逻辑优化 3-2-7 本章总结 4-1-1 本章介绍 4-1-2 LLM实现记忆功能思路与常见记忆模式 4-1-3 ChatGPT-Playground手动模拟记忆功能 4-1-4 Python+OpenAI原生SDK实现记忆功能 4-1-5 ChatMessageHistory组件上手与源码解析 4-1-6 Memory组件运行流程及不同记忆分类 4-1-7 LangChain缓冲记忆组件的使用与解析 4-1-8 LangChain摘要记忆组件的使用与解析 4-1-9 LangChain实体记忆组件的使用与解析 4-1-10 记忆组件的持久化与第三方集成 4-1-11 内置Chain组件的使用与源码解读 4-1-12 RunnableWithMessageHistory简 4-1-13 本章总结 4-2-1 本章介绍 4-2-2 LLMOps项目记忆功能需求拆解分析 4-2-3 运行流程拆解与基础数据表设计 4-2-4 记忆功能相关API文档编写整理 4-2-5 Runnable组件动态添加默认调用参数 4-2-6 Runnable组件配置运行时链内部 4-2-7 Runnable组件动态替换运行组件 4-2-8 Runnable组件重试与回退机制降低程序错误率 4-2-9 Runnable组件生命周期监听器与使用场景 4-2-10 基于Runnable封装记忆链实现记忆自动管理 4-2-11 开源智能体MetaGPT记忆模块解读 4-2-12 本章总结 5-1-1 本章介绍 5-1-2 大语言模型出现幻觉的原因及缓解方案 5-1-3 检索增强生成RAG基础架构与手动模拟 5-1-4 AI应用开发新宠——向量数据库的介绍与用途 5-1-5 传统数据库与向量数据库的使用差异 5-1-6 Embedding文本嵌入模型介绍与使用 5-1-7 OpenAI Embedding接口使用实践测试 5-1-8 CacheBackEmbedding组件的使用与注意事项 5-1-9 其他Embedding嵌入模型的配置与使用 5-1-10 Faiss向量数据库的配置与使用 5-1-11 Pinecone向量数据库的配置与使用 5-1-12 TCVectorDB向量数据库的配置与使用 5-1-13 Weaviate向量数据库的配置与使用 5-1-14 对接自定义向量数据库的配置与使用 5-2-1 本章介绍 5-2-2 Document组件与文档加载器组件的使用 5-2-3 LangChain内置文档加载器使用技巧 5-2-4 自定义LangChain文档加载器使用技巧 5-2-5 Blob与BlobParser代替文档加载器 5-2-6 文档转换器与字符分割器组件的使用 5-2-7 递归字符文本分割器的使用与运行流程 5-2-8 语义文档分割器与其他内容分割器的使用 5-2-9 自定义LangChain文档分割器技巧 5-2-10 非分割类型的文档转换器使用技巧 5-2-11 VectorStore组件深入学习与检索方法 5-2-12 检索器组件深入学习与使用技巧 5-2-13 内置的检索器组件与自定义检索器技巧 5-2-14 本章总结 5-3-1 本章介绍 5-3-2 RAG开发6个阶段优化策略分析 5-3-3 多查询重写策略提升检索准确性 5-3-4 RAG多查询结果融合策略 5-3-5 问题分解策略提升复杂问题检索正确率 5-3-6 Step-Back回答回退策略实现前置检索 5-3-7 混合策略实现doc-doc对称检索 5-3-8 集成多种检索器算法实现混合检索 5-3-9 检索器的逻辑路由缩减检索范围 5-3-10 使用语义路由选择不同的Prompt模板 5-3-11 自查询检索器实现动态元数据过滤 5-3-12 MultiVector实现多向量检索文档 5-3-13 父文档检索器实现拆分和存储平衡 5-3-14 递归文档树检索实施高级RAG深入理解 5-3-15 ReRank重排序提升RAG系统效果 5-3-16 纠正性索引增强生成CRAG优化策略 5-3-17 使用Self-RAG纠正低质量的检索生成 5-3-18 本章总结 6-1-1 本章介绍 6-1-2 LLM函数调用使用技巧与应用场景 6-1-3 LangChain中的工具与工具包 6-1-4 创建自定义工具的3种技巧与使用场景 6-1-5 高德天气预报查询插件的集成与编写 6-1-6 谷歌实时信息搜索插件的集成与编写 6-1-7 ChatModel使用函数调用的技巧与流程 6-1-8 不支持函数调用的大语言模型解决技巧 6-1-9 函数调用快速提取结构化数据使用技巧 6-1-10 函数调用出错捕获提升程序健壮性 6-1-11 多模态LLM执行函数调用的技巧 6-1-12 基于ReACT架构的Agent智能体设计与实现 6-1-13 基于工具调用的智能体设计与实现 6-1-14 内置的其他Agent类型介绍与上手 6-1-15 AgentExecutor源码解析与Agent组件缺陷 6-1-16 本章总结 6-2-1 本章介绍 6-2-2 LCEL链表达式的缺点与扩展 6-2-3 LangGraph介绍与基础组件上手 6-2-4 条件边与循环流程实现工具调用Agent 6-2-5 LangGraph实现ReACT架构Agent 6-2-6 图结构应用程序删除消息的使用技巧 6-2-7 LangGraph检查点实现记忆持久化功能 6-2-8 图结构断点实现Agent与人进行交互 6-2-9 LangGraph子图架构实现AI工作流 6-2-10 需求转换图架构的技巧-CRAG实现 6-2-11 利用图优化LLMOps聊天机器人架构 6-2-12 LangGraph两种基础流式响应技巧 6-2-13 LangGraph 总结与注意事项篇 6-2-14 本章总结