课程简介
在数字化浪潮席卷全球的当下,AI 技术以前所未有的速度重塑着软件研发领域。传统软件研发模式面临着效率瓶颈、质量把控难、创新不足等诸多挑战,企业迫切需要借助新技术实现研发效能的质的飞跃。AI 大模型的出现,为软件研发带来了全新的变革契机,其强大的语言理解、生成与推理能力,能够深度融入软件研发的各个环节,从需求管理、代码编写、测试到运维,全方位提升研发效率与质量。
然而,AI 大模型在软件研发中的落地并非一帆风顺,企业在应用过程中面临着场景选择、工具适配、效果评估、技术演进等诸多难题。如何将 AI 大模型与软件研发实际业务紧密结合,充分发挥其效能,成为众多企业关注的焦点。
本课程聚焦 AI 时代软件研发效能提升落地实战,为期两天。课程涵盖 AI 大模型在软件研发各阶段的应用,包括开发、测试、CI/CD、运维等,通过大量实践案例,深入剖析 AI 辅助代码补全、生成、评审、测试用例编写等具体操作。同时,分享行业头部企业研发效能体系案例,解读研发效能度量基准报告。课程最后设有总结答疑环节,帮助学员巩固知识、解决疑惑,助力学员掌握前沿技术,提升职场竞争力。
课程收益
1、帮助学员掌握实战技能:学会运用 AI 大模型辅助软件研发各环节工作,如代码编写、测试用例生成等,提升实际工作效率与质量。
2、借鉴成功经验:帮助学员了解行业头部企业研发效能体系构建方法与实践案例,为所在企业研发效能提升提供参考与借鉴。
3、洞察行业趋势:帮助学员解读研发效能度量基准报告及行业最新动态,把握 AI 时代软件研发发展方向,提前布局个人职业发展。
受众人群
软件开发者、测试工程师、运维工程师、研发效能工程师、项目经理、需求分析师及其他对研发提效感兴趣的人员
课程周期
2天(12H)
课程大纲
标题 | 授课内容 |
一、AI 大模型辅助软件研发效能提升(AI4SE 企业真实落地最佳实践) | 1. AI大模型对软件研发效能提升的帮助和效果 (1) AI 大模型在软件研发领域应用的主要场景及落地成熟度 (2) AI 大模型助力研发效能提升的实际效果,对结果指标的贡献 (3) AI 大模型辅助软件研发的能力模型:提升效果的七项关键能力 2. AI大模型与软件研发结合点全景图 (1) AI大模型在研发各个阶段的结合点 (2) AI Agent 推动的研发范式变革 3. AI大模型在开发阶段的结合点 (1) AI Coding(代码智能化)的主要产品形态及业界工具 (2) AI Coding(代码智能化)的技术变革演进路线及成熟度 (3) AI代码补全实践案例 ① AI代码补全的关键场景:代码续写(FIM)、代码改写(NES) ② AI代码补全的主流工具:GitHub Copilot、Cursor、国内各云厂商工具 ③ AI代码补全的基础实现:技术原理、补全专用高精度大模型的落地实现 ④ AI代码补全的关键技术:模型训练、模型推理、上下文管理、场景识别 ⑤ AI代码补全的效果评估:度量指标与基准(采纳率、生成率、CPO等) ⑥ AI代码补全技术框架的持续演进 ⑦ AI代码补全的效果提升:公司内效果提升方法、业务定制私有化模型 ⑧ AI代码补全的效果提升:落地应用的技巧 1) 上下文优化策略、注释引导技巧 2) 命名规范与模式识别、项目结构优化 3) 高效编码工作流、特定场景的最佳实践 4) 补全性能优化建议、常见问题解决办法 (4) AI代码生成实践案例 ① AI代码生成的关键场景:Ask、Agent、Background 模式及适用场景 ② AI代码生成的主流工具:Cursor、Claude Code、国内各云厂商工具等 ③ AI代码生成的演进路线:从 Chat 到 Edit,再到 Agent ④ AI代码生成的关键技术:上下文工程、Codebase、知识库、DeepWiki ⑤ AI代码生成技术框架的持续演进 ⑥ AI代码生成的效果评估:度量指标与基准(点踩率、行业各大评测集) ⑦ AI代码生成的技术发展趋势:Vibe Coding 与 Spec Coding 1) 氛围编程与规约编程的多维度对比、适用场景、推荐工具 2) 从氛围编程走向可行代码的四个关键实践 3) GitHub Spec Kit 的五阶段工作流及案例(实操演示) 4) 氛围编程如何确保代码质量及规范合规 ⑧ AI代码生成的效果提升:落地应用技巧 1) Ask 模式 - 即时对话助手 2) Agent 模式 - 自主编程代理 3) Background 模式 - 后台异步代理 4) 核心提示词结构框架及技巧:目标 + 约束 + 上下文 + 输出要求 5) Rules 使用技巧:文件结构、最佳实践、各语言常见 Rules 范例 6) Memory 使用技巧:主动告知、渐进完善、分类管理、定期维护 7) Indexing使用技巧:索引排除策略、团队协作、索引性能优化 8) Docs 使用技巧:配置文档源、精准提问、文档管理与优化 9) 业界常用的 MCP 工具集合 10) 常见模型选择策略:Claude、Gemini、GPT、DeepSeek… (5) AI代码评审实践案例 ① AI代码评审的关键场景:代码审查 & 修复闭环 ② AI代码评审嵌入研发流程:代码编写、代码提交与合流阶段 ③ AI代码评审的数据构造与模型训练 ④ AI代码评审技术框架的持续演进 ⑤ AI代码评审与公司规范的深度集成 ⑥ AI代码评审的效果评估:度量指标与基准(好评率、AI评审占比等) ⑦ AI代码评审的效果提升:业务定制化规范与自迭代优化 (6) AI单元测试实践案例 ① AI单元测试的难点:如何达到高生成率与高准确率 ② AI单元测试的主流工具及相关案例 ③ AI单元测试技术框架:多阶段、多Agent协同的自动化流水线 ④ AI单元测试的效果评估:度量指标与基准(编译通过率、覆盖率) 4. AI大模型在测试阶段的应用与案例 (1) AI在软件测试阶段应用全景 (2) AI辅助测试用例治理的实践及案例 (3) AI辅助测试用例编写的实践及案例 ① 基于思维导图形式的人机协同,实现测试用例智能生成 ② 测试案例智能生成的核心要素:知识库的建设及导入 ③ 基于模型训练及RAG的测试用例生成实践 (4) AI辅助接口自动化测试生成的实践及案例 ① API 接口测试的智能生成工具 ② 智能测试用例生成、智能测试数据生成、智能断言生成 (5) AI辅助GUI自动化测试生成的实践及案例 ① 基于Browser-use + Playwright + Pytest + Allure 的实现方案 ② 基于Midscene.js 的开源实现方案 5. AI大模型在CI/CD阶段的应用与案例 (1) CI/CD错误智能定位及问题解决的实践及案例 (2) 关键技术点:检索增强生成(RAG)、日志选取及压缩、提示工程 (3) CI/CD流水线的智能编排 6. AI大模型在运维/运营阶段的应用与案例 (1) AI辅助监控告警配置的实践及案例 (2) AI辅助监控查询及告警摘要实践及案例 (3) AI辅助故障分析及故障定位实践及案例 7. AI大模型在需求/迭代管理领域的应用与案例 (1) AI辅助需求归集与梳理 (2) AI辅助需求拆分与细化 (3) AI辅助需求评审与质量控制 8. AI大模型在软件研发领域未来的形态探索 (1) 数字员工的多角色引入与实践案例 (2) 研发范式变革的具体化落地案例 |
二、软件研发效能提升的行业案例与趋势洞察 | 1. 研发效能的系统性方法(行业效能基线数据与系统化模型) 2. 研发效能黄金三角 V2.0(自创知识体系) 3. 头部企业研发效能体系案例(独家内部资料) (1) 案例企业 ① 字节跳动 ② 腾讯集团 ③ 阿里巴巴、蚂蚁集团 ④ 百度 ⑤ 华为 ⑥ 国外标杆公司(Google、Microsoft、Amazon等) (2) 案例解析维度 ① 研发效能组织结构(组织定位及团队划分) ② 研发效能发展历程(研发效能演进路线) ③ 研发效能平台建设(工具平台建设及现状) ④ 研发效能实践体系(效能实践体系及特色) ⑤ 研发效能度量指标(度量指标体系及特色) ⑥ 研发效能的智能化探索(AI大模型最新落地进展) 4. 研发效能度量基准报告及要点分析 (1) 国内企业研发效能度量基准值(2024 & 2025 对比分析) (2) 研发流程、工具平台、数据度量对研发效能的影响分析 (3) 人工智能辅助软件研发的最新行业报告精华解读(2025) |
三、课程整体总结及答疑 | 1. 课程内容深化:结合学员问题,给出针对性指导建议(深度研讨) 2. 开放性问题研讨:AI 时代对个人的转型要求及行业机遇(深度研讨) |
京ICP备2022035414号-1