课程简介
在人工智能技术迅猛发展的当下,大语言模型(LLM)正以前所未有的态势重塑软件研发与测试领域。传统软件测试模式面临效率提升、复杂场景覆盖等诸多挑战,而LLM凭借强大的语言理解与生成能力,为软件测试带来全新解决方案。从测试用例自动生成、测试脚本开发,到测试结果分析与被测对象可测试性提升,LLM的应用贯穿软件测试全流程,极大提高测试质效。同时,AI辅助编程工具的兴起,进一步改变软件生态与开发模式。然而,如何将LLM技术深度融入软件测试实践,充分发挥其优势,成为行业亟待解决的问题。
本课程围绕LLM在软件测试领域的应用实践展开,深入剖析LLM基本原理,详细讲解提示词工程、ReAct、思维链、RAG等核心技术及应用。结合软件研发全流程,阐述LLM在各阶段的应用场景与案例,同时聚焦软件质量和测试领域,介绍LLM在测试用例生成、测试脚本开发、测试结果分析等方面的应用及技术难点解决思路。此外,课程还涵盖AI辅助编程工具在测试开发中的应用,分享大厂实战案例,帮助学员全面掌握LLM在软件测试领域的应用方法,提升测试开发质效。
课程收益
1、帮助学员掌握 LLM 核心能力:系统学习 LLM 基本原理、应用模型及提示词工程等,提升运用 LLM 解决测试问题的能力。
2、帮助学员精通测试场景应用:了解 LLM 在软件研发全生命周期及软件质量和测试领域的各类应用场景,积累实战经验。
3、帮助学员提升测试开发质效:学会运用 AI 辅助编程工具优化测试开发流程,提高测试效率和代码质量。
受众人群
软件研发负责人,研发管理负责人,运维负责人,DevOps负责人,测试负责人,工程效能负责人、软件架构师,资深研发工程师、运维架构师,资深运维工程师,DevOps工程师,SRE、测试架构师,资深测试工程师、研发管理人员,研发流程工程师
课程周期
2天(12H)
课程大纲
标题 | 授课内容 |
一、熟练使用LLM能力的全面进阶 | 1. 大语言模型的基本原理详解 2. LLM应用能力的进阶模型(“倒三角”模型) 3. 提示词工程基础知识 4. 主流提示词使用技巧 5. 提示的万能使用公式详解 6. 提示词模板的使用 7. 提示词静态链的使用 8. 提示词的横向扩展 9. 提示词的纵向扩展 10. Jinja2在大模型提示词工程中的应用 11. 使用OpenAI API 12. ReAct的概念和落地 13. 思维链和多思维链 14. RAG的基本原理与应用 15. 多模态RAG的使用 16. plugin机制与使用方式 17. Function Call机制与使用方式 18. MCP机制与使用方式 19. Skill机制与使用方式 20. Agent的雏形 21. Agent开发的基本框架 22. 业界主流Agent的设计思路与使用 23. Multi-Agent的雏形 24. 业界主流Multi-Agent的设计思路 25. 多Agent任务调度策略与选型 26. Agent设计模式与选择 27. Multi-Agent的基本逻辑和应用范围 28. Multi-Agent应用示例:MetaGPT 29. Multi-Agent应用示例:DevChat |
二、LLM在软件研发全生命周期中的应用场景与案例(质量视角:大厂独家案详细解读) | 1. 软件研发全流程中LLM擅长的部分 2. 软件研发全流程中LLM不擅长的部分 3. 竞品分析与市场调研阶段LLM的应用场景与案例 4. 产品概念与产品定义阶段LLM的应用场景与案例 5. 产品原型阶段LLM的应用场景与案例 6. 产品体验设计阶段LLM的应用场景与案例 7. 需求分析阶段LLM的应用场景与案例 8. 技术选型阶段LLM的应用场景与案例 9. 顶层设计阶段LLM的应用场景与案例 10. 详细设计阶段LLM的应用场景与案例 11. 从设计到UML,从UML到代码的完整示例 12. 编码阶段LLM的应用场景与案例 13. 代码评审阶段LLM的应用场景与案例 14. 单元测试阶段LLM的应用场景与案例 15. 接口测试阶段LLM的应用场景与案例 16. 持续集成流水中LLM的应用场景与案例 17. 各类软件工程文档中LLM的应用场景与案例 18. 持续发布中LLM的应用场景与案例 19. 性能测试阶段LLM的应用场景与案例 20. 测试结果分析中LLM的应用场景与案例 |
三、LLM在软件质量和软件测试领域中的应用与案例 | 1. 使用Test pilot自动生成测试用例 2. Test pilot的基本原理 3. 使用OpenAI API实现单元测试用例的生成 4. LLM用于单元测试用例生成的技术难点与解决思路 5. 使用OpenAI API实现API接口测试用例的生成 6. 使用DeepSeek 实现API组合调用测试用例的生成 7. LLM用于API接口测试用例生成的技术难点与解决思路 8. 测试脚本开发中的GitHub Copilot应用 9. Copilot X的能力与测试领域应用 10. 基于AI Agent的测试用例设计生成技术 11. 基于AI Agent的测试用例脚本生成技术 12. 基于Multi-Agent的测试用例设计生成技术 13. 基于Multi-Agent的测试用例脚本生成技术 14. 使用LLM实现Monkey Test的能力扩展 15. 使用LLM实现无脚本的Mobile App探索测试 16. 使用LLM识别错误敏感的测试数据 17. 使用LLM实现失败测试用例的自动修复 18. 使用LLM提升被测对象的可测试性 |
四、AI辅助编程工具提升测试开发的质效 | 1. LLM辅助编程工具的基本原理和应用场景 2. 代码大模型测评集HumanEval、MBPP介绍和评分原理 3. 微软:Github Copilot和Copilot X 4. 亚马逊:CodeWhisperer 5. 智能代码编辑器Cursor 6. LLM辅助编程工具 主要使用场景 7. LLM辅助编程工具的实现原理 8. LLM辅助编程工具加持下的软件生态改变 9. LLM辅助编程工具改变传统开发的12大场景 10. LLM辅助编程工具的编程技巧 11. LLM辅助编程工具下的测试优化 12. Vibe Coding的常见误区 13. Vibe Coding的正确使用方式 14. 案例:某互联网大厂的应用案例分析 |
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
Neo Ru
百林哲咨询(北京)有限公司专家团队成员
京ICP备2022035414号-1