课程简介
搜广推的本质其实是信息的高效获取,并非只有搜索广告推荐三个场景才会用到推荐的技术,例如公司内部的文档查找、邮件查找等。2B的一些产品,如果涉及的产品或服务数量较多,也是需要提高检索效率,不然就需要专业的售前人员进行产品服务解答。
而2C产品有推荐需求的场景就更多了,无论是电商、新闻、视频、游戏还是交友等场景,都是可以应用推荐技术来提升产品效果。
讲师根据多年的实践经验,根据实际业务场景出发,如果是企业内部或2B场景,讲授如何高效低成本的从0到1的搭建搜索推荐系统。如果是2C场景,则是讲授稳步提升效果的系统搭建路径,并分享工业界前沿大厂的探索经验。即使是已有成熟的搜广推场景,也可以讲授学界的前沿,例如因果推断等。
ChatGPT的出现也给员工效率提升带来了各种可能性,但通用gpt无法涉及到企业内部信息和数据,所以只能解决通用问题,无法解决企业的业务问题。
讲师通过在gpt前沿的探索经验,讲授企业如何私有开发和部署ChatGPT。根据多年带领技术团队的经验,讲授如何激发员工的积极性,如何正确使用OKR工具。
课程收益
1. 掌握OKR的正确使用方式;
2. 掌握降低沟通成本、提升员工效率的体系;
3. 掌握从0到1,低成本搭建推荐系统的方法;
4. 掌握基于数据驱动把握产品设计和业务发展方向的思维;
5. 掌握推荐系统的工业界、学术界的前沿探索;
6. 了解ChatGPT/GPT4等大模型的历史演进关系和前沿进展;
7. 掌握ChatGPT/GPT4效果神奇的关键底层技术;
8. 掌握大模型背后的NLP相关技术和强化学习相关知识;
9. 掌握如何自己训练和部署私有ChatGPT。
受众人群
本课程广泛适用于涉及B端C端搜广推场景的搭建、技术团队的带领、ChatGPT相关技术的掌握和应用的相关人员。包括甲方企业IT部门、研发部门、SaaS公司、互联网公司等,目标学员包括但不限于:
1. 负责搭建推荐系统的相关人员;
2. 带领技术团队的中层技术Leader;
3. 希望借助ChatGPT提升公司内生产效率的相关人员。
课程周期
3天(18H)
课程大纲
课程主题 | 课程大纲 |
团队效率 | 1. OKR的正确使用 2. 如何提高技术团队的效率 |
推荐系统从0到1 | 1. 推荐系统能否直接把大厂前沿模型应用到自己的场景上? 2. 如何设计推荐系统的迭代路径。 3. 推荐算法的召回、粗排、精排、重排的各类模型。 4. 推荐系统和推荐算法的区别。 5. 一些推荐系统的工程逻辑。 6. 关于搜索相关性召回的一些问题。 |
互联网大厂的探索 | 京东、微信、阿里、美团、趣头条等推荐场景的探索。 |
因果推断 | 1. 什么是因果推断 2. 推荐系统中解决流动性偏差问题 3. 解决位置偏差、选择性偏差等bias问题 |
强化学习 | 1. 强化学习有什么用,什么场景适合强化学习 2. 马尔可夫过程和马尔可夫奖励过程 3. 多臂老虎机问题 4. DQN、DDQN等算法 |
ChatGPT的前身和相关模型 | 1. 词向量:word2vec/elmo 2. Transformer 3. Bert和reberta、ernie等后续模型 4. GPT1、2、3 5. 提示(prompt)学习 6. 为什么大语言模型LLM可以上下文学习ICL? |
强化学习 | 1. 强化学习为什么对chatGPT作用这么大 2. 强化学习应用场景 3. 马尔可夫过程、马尔可夫奖励过程 4. 多臂老虎机问题 5. DQN及DDQN 6. 策略梯度和Actor-Critic 7. PPO算法 |
ChatGPT/GPT4的关键技术和其它前沿 | 1. instruct-gp的sft/reward-model/rlhf 2. google的超大规模语言模型PaLM 3. Meta的LLamaLM 4. openai同源公司的anthropic LLM 5. Self-instruct/instruct-dial |
自行训练和私有部署ChatGPT(4H) | 1. 如何选择合适的模型和参数规模。 训练步骤1获取sft数据集,然后对模型进行微调。 训练步骤3用reward model对sft后的模型进行训练。 2. 加速训练方法LoRA和混合精度计算。 3. 量化部署float16/int8/int4 |