课程简介
在人工智能技术迅猛发展的当下,大模型已成为推动各行业智能化转型的核心驱动力。从AI产品思维到企业级应用落地,从基于大模型API的灵活开发到利用LangChain框架构建复杂系统,从RAG知识库的构建到Agent智能体的开发,大模型的应用场景不断拓展,技术深度与广度持续增强。然而,如何高效利用大模型技术,实现企业业务的智能化升级,成为众多企业面临的重大挑战。
本课程围绕大模型应用开发,从AI产品思维、企业AI应用落地指南出发,深入讲解基于大模型API的开发应用、LangChain框架开发应用、构建企业级RAG知识库、开发Agent智能体等核心内容。通过理论讲解与实战案例分析相结合的方式,帮助学员全面掌握大模型应用开发的关键技术与最佳实践,提升解决实际问题的能力,为企业智能化转型提供有力支撑。
课程收益
1、帮助学员掌握大模型应用开发的核心技术与最佳实践,提升实战能力。
2、帮助学员深入理解AI产品思维,助力企业AI应用高效落地。
3、帮助学员学会构建企业级RAG知识库与Agent智能体,推动企业智能化升级。
受众人群
各类软件企业和研发中心的程序员、软件设计师、架构师, 项目经理,架构师,及其他对大模型应用感兴趣的人员。本课程面向零基础LLM应用开发者,不需要了解复杂数学算法,机器学习原理,不需要之前学习过大模型知识。有Java,C#,C++等编程基础,最好有Python基础知识。
课程周期
2天(12H)
课程大纲
标题 | 授课内容 |
一、AI产品思维和企业AI应用落地指南 | 第一部分: AI企业落地案例与AI产品思维 1.深入理解AI和应用 2.深入理解AI产品思维 3.AI产品产业化和标准化 4.AI产品落地的价值与难题 5.所有应用都值得被大模型重构一遍!-百度李彦宏 6.AI 2.0彻底改变社会:所有应用都可以被重写一次--李开复 7.苹果 pad math notes的AI应用分析 8.大模型企业落地场景-个人提效和企业流程改造 9.智能问答系统 10.智能客服系统 11.智能问数和ChatBI 12.AI企业落地场景分析 |
二、基于大模型API开发应用 | 第一部分:大模型 API 应用开发(基于多种大模型API) 1.国内大模型API-DeepSeek API 2.OpenAI大模型API 3.模型参数Temperature 设置 4.模型Token 5.大模型多轮对话 6.大模型短期记忆和长期记忆 7.大模型JSON Output 8.大模型应用缓存 9.案例分析
第二部分: Prompt Engineering 高阶技巧 1.思维链(Chain of Thought, CoT): 2.引导模型逐步推理反思机制(Self-Reflection): 3.让模型自己评估输出质量 4.提示模板设计(Prompt Templates):Jinja2、LangChain Template 5.支持外部工具调用提示设计(Tool Calling Prompt) 6.动态 Prompt 生成:根据用户输入动态构造 Prompt
第三部分: 大模型Function Calling最佳实践 1.什么是 Function Calling? 2.大模型如何与外部工具或 API 交互? 3.Function Calling 的应用场景(如数据查询、计算、外部服务调用等)。 4.Function Calling 的实现原理 5.Function Calling 的开发流程。 6.Function Calling 的代码示例 7.使用 OpenAI API 实现 Function Calling 的示例代码。 8.示例场景:天气查询、数学计算、数据库查询等。 9.Function Calling 的优化与调 10.Function Calling 的最佳实践案例分析
第四部分: 基于多模态大模型的企业应用案例 1.多模态大模型基本概念 2.多模态GPT多模态应用场景分析 3.OpenAI多模态API解析 4.多模态大模型核心技术 5.多模态提示模板工程 6.多模态思维链 7.多模态基础模型 8.多模态大模型的应用案例 9.视觉问答应用案例 10.图像问答应用案例 11.某企业多模态案例
第五部分:大模型API构建应用程序(多案例,灵活选择) 1.应用程序开发概述 2.案例项目分析 3.项目1:构建新闻稿生成器 4.项目2:语音控制 5.项目3:企业管理系统MIS应用案例分析 6.项目4:某企业智能管理系统 |
三、基于LangChain框架开发应用 | 第一部分: ⼤模型应⽤开发框架 LangChain 1.⼤模型应⽤开发框架 LangChain 2.LangChain基本原理与开发流程 3.LangChain的核心组件:理解任务链与内存模块 4.LangChain开发流程概述 5.为什么需要 LangChain 6.LangChain 典型使⽤场景 7.LangChain 基础概念与模块化设计 8.LangChain 核⼼模块⼊⻔与实战 9.LangChain 的3 个场景 10.LangChain 的6 大模块 11.LangChain 的开发流程 12.创建基于LangChain聊天机器人
第二部分: LangChain核心组件-模型、模型类与缓存 1.构建复杂LangChain应⽤ 2.模型的定义与应用 3.语言模型的工作原理 4.Chat类、LLM类模型简介 5.完成基本文本生成任务 6.自定义LangChain Model类 7.模型参数的自定义与调优 8.LangChain与缓存 9.使⽤大模型构建文档问答系统
第三部分: LangChain核心组件-:链 和记忆 1.LLM链 2.LLM链的基本工作流程和参数设置 3.如何在LLM链中嵌入提示词模板和预处理逻辑 4.序列链 5.路由链 6.文档链 7.聊天消息记忆 8.会话缓冲区与会话缓冲窗口 9.会话摘要与支持向量存储 10.LangChain与表达式语言 11. LCEL初探与流式支持 12.LCEL并行执行优化 13.回退机制的设计与实现 14.LCEL与LangSmith集成 |
四、构建企业级RAG知识库 | 第一部分:大模型企业RAG应用 1.RAG技术概述 2.加载器和分割器 3.文本嵌入和 向量存储 4.检索器和多文档联合检索 5.RAG技术的关键挑战 6.检索增强生成实践 7.RAG技术文档预处理过程 8.RAG技术文档检索过程
第二部分: 构建基于DeepSeek RAG:实现检索增强生成 1.何谓检索增强生成 2.提示工程、RAG与微调 3.从技术角度看检索部分的Pipeline 4.从用户角度看RAG流程 5.RAG和Agent 6.通过Llamalndex的ReAct RAG Agent实现检索 7.将财报文件的数据转换为向量数据 8.构建查询引擎和工具 9.配置文本生成引擎大模型 10.创建Agent以查询信息
第三部分: RAG实战案例-企业文档问答系统 1.企业文档问答需求分析与系统设计 2.确定问答系统的需求:识别用户的主要查询类型与目标 3.系统结构与模块划分:明确检索与生成模块的协作方式 4. 搭建向量数据库与检索模块 5.数据预处理与向量化:生成高效的嵌入向量 6.构建与优化索引:提升检索模块的查询速度 7.生成模块的集成与模型调优 8.加载与配置生成模型:选择适合问答系统的生成模型 9.模型优化与提示词调优:提高生成内容的准确性与相关性 10.RAG系统测试、部署与优化 11.测试流程与性能监控:确保系统的稳定性与响应速度 12.企业环境的部署与上线:实现系统在实际业务中的应用 |
五、基于大模型开发Agent智能体 | 第一部分:大模型驱动的Agent智能体开发概述 1.智能体的定义与特点 2.智能体与传统软件的关系 3.智能体与LLM的关系 4.从ChatGPT到智能体 5.智能体的五种能力 6.记忆,规划,工具,自主决策,推理 7.多智能体协作 8.企业级智能体应用与任务规划 9.智能体开发
第二部分: 基于LangChain构建Agent 1.通过LangChain中的ReAct框架实现自动定价 2.LangChain ReAct框架 3.LangChain中ReAct Agent 的实现 4.LangChain中的工具和工具包 5.通过create_react_agent创建Agent 6.深挖AgentExecutor的运行机制 7.Plan-and-Solve策略的提出 8.LangChain中的Plan-and-Execute Agent 9.通过Plan-and-Execute Agent实现物流管理 10.为Agent定义一系列进行自动库存调度的工具
第三部分: 多Agent 最佳实践—langGraph框架 1.为什么选择多智能体架构? 2.常见的多智能体架构 3.LangGraph架构和应用 4.LangGraph 核心组件:节点与可控制性 5.节点与可控制性-第一个LangGraph 6.节点与可控制性-基本控制:串行控制&分支控制&条件分支与循环 7.节点与可控制性-精细控制:图的运行时配置&map-reduce 8. LangGraph 核心组件:持久化与记忆 9.记忆:短期记忆的实现&长期以及实现&使用总结技术优化记忆 10. LangGraph 核心组件:人机交互 11. LangGraph 核心组件:时光旅行 12. LangGraph 核心组件:流式输出 13. LangGraph 核心组件:工具调用 14.基于LangGraph 构建代码助手 15.基于LangGraph 的提示词生成小助手
第四部分: CrewAI: 一款主流的多Agents开发框架 1.CrewAI架构和原理 2.CrewAI安装与第一个示例 3.CrewAI 核心组件讲解 4.CrewAI 核心组件:Agents 5.CrewAI 核心组件:Task 6.CrewAI 核心组件:Crew & flow 7.CrewAI 核心组件:知识库 & 记忆 8.基于CrewAI 的游戏开发助手最近学习 9.基于CrewAI 的营销策略大师
第五部分: Agent智能体实战-智能邮件助理 1.需求分析:邮件助手的核心功能与用户痛点 2.任务分类与优先级排序的需求分析 3.实现多任务邮件管理的技术架构 4.集成LLM处理自然语言邮件回复 5.LLM在多轮对话中的语境保持 6.个性化与情感分析在邮件回复中的应用 7.模板化与自定义语句生成的实现设计 8.错误处理与异常情况的回复策略 9.个性化优化:学习用户风格的邮件写作 10.用户行为追踪与语言模型的训练优化 11.自适应个性化邮件模板的设计与实现 |
六、基于低代码平台构建智能体 | 第一部分: 基于低代码平台--字节Coze 构建智能体 1.Coze:零基础开发对话机器人 2.Coze功能概述 3.Coze基础能力 4.Coze插件 5.Coze工作流 6.Coze记忆库 7.用工作流优化输出结果 8.基于字节Coze构建开发软件开发智能体 9.构建研发工程师agent案例
第二部分: 基于低代码平台—开源DIfy构建智能体 1.Dify:零基础开发对话机器人 2.Dify:功能概述 3.Dify:基础能力 4.Dify:插件 5.Dify:工作流 6.Dify:记忆库 7.综合实战:基于Dify的数据库查询实现 8.Dify本地化与Agent各终点发布(网页嵌入、微信、API) |
七、MCP原理和实战案例 | 第一部分: MCP原理与实战:高效AI Agent智能体开发 1.什么是MCP 2.MCP的起源与发展 3.掌握MCP的好处 4.MCP的工作原理 5.MCP的核心架构 6.MCP的核心组件 7.MCP与API的区别 8.MCP与Function Calling的区别 9.MCP与A2A协议的区别 10.MCP的本地搭建 11.MCP案例分析 12.构建MCP案例 |
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
Mace Liu
百林哲咨询(北京)有限公司专家团队成员
京ICP备2022035414号-1