News|RAG&CoT深度技术课程开班-某IT软件上市公司

 

8月4日,《RAG&CoT深度技术课程》在北京开班,该课程是TsingtaoAI为某IT软件上市公司的AI系统开发团队定制研发的高级培训课程。课程一共2天,8月4日和11日分别授课,北京线下58位技术人员参加学习,上海区域技术团队同步线上会议参加。

课程简介
 

本课程深入讲解大语言模型(LLM)领域的两大前沿技术:RAG(Retrieval-Augmented Generation)和思维链(Chain of Thought, CoT)。本课程通过理论与实践相结合的方式,详细介绍RAG和CoT技术的基本原理、应用场景、技术实现方法以及最新的研究进展,帮助学员全面掌握这些技术的核心要点。

RAG技术部分将涵盖从入门到高级的全方位内容,包括RAG的基本概念、工作流、实战应用以及高级技巧等。学员将通过实践操作,学习如何从零基础搭建RAG系统,并掌握RAG在不同应用场景中的高级实现方法。

思维链技术部分将重点讲解思维链的基本原理、提示方法、应用场景和增强方法等。通过具体案例分析,学员将深入理解思维链技术在算术推理和常识推理中的应用,并学习如何在小模型中实现思维链推理能力的迁移。

培训时间
 

一共2天,每天6小时,支持线上或线下。

课程目标
 

1. 掌握RAG技术的基本原理和工作流程

  1. 理解RAG(Retrieval-Augmented Generation)的基本概念和重要性。

  2. 熟悉RAG的工作流,包括查询生成、检索、重排和生成四个主要步骤。

2. 具备搭建和优化RAG系统的能力

  1. 学习从零基础搭建RAG系统的环境配置和必要工具安装。

  2. 掌握高级RAG技术,如Query理解、Query路由、索引优化、重排策略和生成模型优化等。

  3. 能够在实际应用中优化RAG系统,提高检索和生成结果的质量。

3. 深入理解思维链(CoT)技术及其应用

  1. 理解思维链技术的基本原理和发展历程。

  2. 掌握不同的思维链提示方法,如零样本思维链提示和多模态思维链提示。

  3. 了解思维链技术在算术推理和常识推理中的应用场景和具体实现方法。

4. 掌握思维链技术的增强方法

  1. 学习图形思维链(Graph-of-Thought, GoT)和自动思维链生成(Automated CoT Generation)的基本原理和实现方法。

  2. 探索如何通过指令调优(Instruction-tuning)将大模型中的思维链推理能力迁移到小模型中,实现资源受限环境下的复杂推理。

5. 提升学员在AI技术领域的研究和开发能力

  1. 通过实验与案例分析,学会在各种数据集上进行实验设置和性能评估。

  2. 理解和掌握最新的LLM/大模型研究成果和前沿技术,增强在实际项目中的应用能力。

  3. 提高学员在AI系统开发和优化方面的综合能力,推动技术团队在AI领域的创新和进步。

客户反馈
 
 
 
 
 
部分授课课件
 
部分课后测试题
 
 
 

 

课程大纲内容
 

一、RAG技术

1. RAG启蒙

  • 定义与背景:RAG(Retrieval-Augmented Generation)的基本概念及其在自然语言处理中的重要性。

  • 应用场景:RAG在信息检索、问答系统等方面的应用实例。

  • RAG概念入门

  • 工作流介绍:RAG的基本工作流,包括查询生成、检索、重排和生成四个主要步骤。

  • 具体示例:详细展示一个RAG模型从查询到生成结果的全过程。

  • 环境配置:从零开始搭建RAG系统的环境配置及必要的工具安装。

  • 实战步骤:逐步指导学员搭建一个简单的RAG系统,涵盖数据预处理、模型训练和结果生成。

  • 提供RAG相关的代码示例和资源链接,便于学员参考和实践。

  • RAG工作流及示例

  • 零基础搭建RAG实战

  • 专栏代码地址

2. 高级RAG技术讲解

  • 语义解析:深入解析Query的语义理解及其对检索效果的影响。

  • 查询优化:如何通过优化Query来提高检索结果的准确性。

  • 路由策略:不同Query路由策略的对比及其在实际应用中的优缺点。

  • 路由实现:详细讲解Query路由的实现方法及其在RAG系统中的应用。

  • 索引结构:常见索引结构(如倒排索引、哈希索引等)的原理及应用。

  • 索引优化:如何通过索引优化提高检索速度和准确性。

  • 检索算法:常见检索算法(如BM25、向量检索等)的原理及比较。

  • 实践应用:在实际RAG系统中应用不同检索算法的案例分析。

  • 重排策略:不同重排策略的介绍及其对生成结果的影响。

  • 重排实现:如何在RAG系统中实现有效的重排策略,提高结果的相关性。

  • 生成模型:常见生成模型(如GPT、T5等)的原理及其在RAG中的应用。

  • 生成优化:如何通过优化生成模型提高结果的流畅度和准确性。

  • 评估方法:RAG系统评估的常见方法及其优缺点。

  • 框架介绍:主流RAG框架(如Haystack、FAISS等)的比较及使用指南。

  • RAG2.0概念:RAG2.0的新特性及其在实际应用中的优势。

  • Agent技术:如何在RAG系统中集成Agent技术,提升系统的智能化水平。

  • Query理解

  • Query路由

  • 索引(Indexing)

  • Query检索

  • 重排(Rerank)

  • 生成(Generation)

  • 评估与框架

  • RAG2.0、Agent

3. RAG实战应用

  • 详细介绍RAG系统的基本工作流程,包括查询生成、检索、重排和生成等步骤。

  • 通过具体案例展示Query理解在RAG系统中的重要性及其实现方法。

  • 分析不同Query路由策略的应用场景及其对系统性能的影响。

  • 展示索引结构在实际RAG系统中的应用,及其对检索效果的影响。

  • 通过实际操作展示不同检索算法在RAG系统中的应用及效果对比。

  • RAG的基本流程

  • Query理解

  • Query路由

  • 索引(Indexing)

  • Query检索

4. 高级RAG实战

  • 详细介绍如何选择和配置适合RAG系统的文档解析工具,提高系统性能。

  • 深入讲解如何训练和优化切分模型,提高文档切分的准确性和效率。

  • 如何通过定制Embedding模型,提高RAG系统的语义理解和检索能力。

  • 详细介绍LLM微调的步骤和技巧,提升生成结果的质量和相关性。

  • 展示一些高级RAG技巧的实现方法,及其在实际应用中的效果。

  • 高级RAG pipeline设计:如何设计和实现一个高效的RAG pipeline,提升系统性能。

  • Agentic RAG概念:Agentic RAG的基本原理及其在实际应用中的优势。

  • 实践应用:展示Agentic RAG在不同应用场景中的具体实现和效果。

  • GraphRAG概念:GraphRAG的基本原理及其在实际应用中的优势。

  • 实践应用:展示GraphRAG在不同应用场景中的具体实现和效果。

  • 配置合适的文档解析工具

  • 训练更聪明的切分模型

  • 定制更强的Embedding模型

  • 微调自己的LLM

  • 高级RAG技巧实现& 高级RAG pipeline

  • Agentic RAG

  • GraphRAG

 

二、思维链CoT技术

1. 思维链技术概述

  • 介绍思维链技术的基本原理和主要用途,及其在自然语言处理中的重要性。

  • 回顾思维链技术的发展历程,分析其在自然语言处理中的应用及未来发展趋势。

  • 基本概念

  • 发展历程

2. 思维链提示方法

  • 探讨如何在没有示例的情况下,通过自然语言提示引导模型进行逐步推理。

  • 结合文本和图像等多模态信息,提高推理准确性和收敛速度。

  • 零样本思维链提示(Zero-Shot CoT)

  • 多模态思维链提示(Multimodal CoT)

3. 思维链的应用场景

  • 展示模型如何在算术推理任务中使用思维链方法,提高多步数学问题的解决能力。

  • 分析思维链在常识问答任务中的应用,讨论其在解决复杂常识推理问题中的表现。

  • 算术推理

  • 常识推理

4. 思维链技术的增强方法

  • 介绍如何通过图注意力网络(GAT)增强思维链的推理能力。

  • 研究如何自动生成高质量的思维链提示,提高模型在不同任务中的适用性。

  • 图形思维链(Graph-of-Thought, GoT)

  • 自动思维链生成(Automated CoT Generation)

5. 小模型中的思维链迁移

  • 探讨如何通过指令调优(Instruction-tuning)将大模型中的思维链推理能力迁移到小模型中,以实现资源受限环境下的复杂推理。

  • 模型对齐与迁移

6. 实验与案例分析

  • 详细介绍在各种数据集上的实验设置,包括GSM8K和ScienceQA等数据集。

  • 分析不同提示方法在多种推理任务中的表现,并提供相关实验数据与结果讨论。

 

讲师介绍
 
 
赵老师,资深大模型算法专家
 

北京邮电大学本硕连读,拥有扎实的人工智能理论知识和丰富的项目实践经验。在字节跳动和中国银行担任算法工程师,现在在AI科技公司负责大语言模型(LLM)落地项目。已构建自研训练框架,可适配ChatGLM1&2、Baichuan1&2、Qwen14B等主流开源模型的全参/lora/Qlora微调,支持各种训练指标可视化,方便对比实验;已构建训练数据生成流程,基于不同业务需求进行训练数据处理;已构建推理服务,基于自训模型及推理服务成功在APP上线与用户交互。

教育背景

  • 北京邮电大学 硕士研究生,人工智能专业

  • 北京邮电大学 本科,计算机科学与技术专业

过往授课课程

  • Python编程与大数据应用

  • ChatGLM与其他LLM的部署、训练与微调

  • LangChain框架深度解析与实践

  • 多模态处理与多模态大语言模型实践

  • 知识图谱技术在大数据中的应用

  • 大模型(LLM)数据预处理与特征工程

LLM培训案例

  1. 课程内容:讲解LLM的基础原理、部署策略以及微调技巧,帮助学生在实际项目中应用LLM。

  2. 培训效果:提高了学员对LLM的理解和实际操作能力,促进了项目的顺利进行。

  1. 课程内容:为技术团队提供LLM模型与多模态AIGC联合应用,利用LLM能力助力多模态生成。

  2. 培训效果:提升了团队的多模态生成技术水平,增强了企业在AIGC领域的竞争力。

  1. 中信银行:LLM Driving课程

  2. 广汽如祺:AIGC大模型应用开发技能培训

个人资质

  • 精通Python、Go语言,具有丰富的后端开发经验,涉及数据库、kafka、高并发处理等。

  • 具备深厚的大模型、NLP、RAG、思维链CoT、语音识别(ASR)和语音测评(GOP)技术背景,曾基于kaldi和conformer+transformer框架开发相关服务。

  • 熟悉主流开源大语言模型的全参/lora/Qlora微调技术,并能够根据不同业务需求进行定制化训练数据处理。

发表论文与发明专利

  • 发表论文:《基于多模态大语言模型的智能客服系统研究》《大模型在金融行业的应用与实践》

  • 发明专利:一种用于金融风险预测的多模态大语言模型;基于LLM的智能语音交互系统。

其他项目经验

  1. 项目内容:负责后端开发,涉及数据库管理、kafka消息队列、高并发处理等技术。

  2. 项目成果:提高了系统的稳定性和处理效率,满足了高并发需求。

  1. 项目内容:基于kaldi框架训练语音测评模型,实现服务端和手机端本地化推理。

  2. 项目成果:该服务成功应用于用户APP的中英文口语练习,实现了自动化打分评价。

  1. 项目内容:基于conformer+transformer框架训练端到端模型,实现服务端离线识别和流式识别。

  2. 项目成果:该服务成功应用于客服系统和语音审核场景,提高了识别准确率和效率。

  1. Python&Go语言后端开发

  2. 语音测评(GOP)服务

  3. 语音识别(ASR)服务

 

 
陈老师 大模型算法及应用开发资深专家
 

超过10年的AI、数据科学、软件开发和系统架构经验,专注于人工智能生成模型(AIGC)、Python、Java语言方向。现任TsingtaoAI研发及算法项目负责人。陈老师以其深厚的AI技术背景和丰富的实践经验,致力于通过高质量的培训课程帮助学员提升专业AI技能。在科技行业大模型技术的研发和实际落地方面拥有广泛的实践经验,并且多次主导和参与了针对科技行业的大模型技术培训和辅导项目。

教育背景

  • 2005.09—2008.07 天津大学 计算机科学与技术 硕士

  • 2001.09—2005.07 山东大学 计算机科学与技术 学士

过往培训内容

  • 大模型(LLM)技术原理与应用

  • AIGC应用开发实践课程:多模态大模型应用开发

  • 大模型在科技行业的具体落地案例分析

  • 金融科技行业数据分析与智能决策

  • 机器学习与神经网络基础及进阶

  • Python及Java编程语言应用

培训案例

  • TsingtaoAI:为公司研发团队进行大模型技术培训,内容涵盖大模型的基本原理、开发实践以及在科技和营销业务中的应用。

  • 苏泊尔:对IT/AI技术团队进行大模型技术培训,提升团队对大模型技术的理解、掌握和应用能力。

  • 建设银行:开展关于大模型技术系统的专题培训,分享大模型系统设计、RAG技术实现及实际应用中的经验和挑战。

工作&专业经验

  • TsingtaoAI:研发及算法负责人,负责相应的大模型微调及应用开发,开发产品包括:基于数隐产业图谱的数据流通服务平台;基于GLM大模型的智能客服应用平台;基于多模态大模型的动物X光片智能诊断系统;基于LLM的AIGC应用开发实训平台;辅助教师备课和教学的AIGC教育大模型应用平台;基于大模型的轨道交通质量安全交互系统;基于大模型的教育行业应用平台;基于大语言模型的AIGC案例学习平台;面向HR的大语言模型应用平台。负责大模型技术在教育培训中的应用与推广。

  • 360数科:资深算法专家,根据实际业务需求,搭建完善全生命周期的风控模型产品体系,有效识别客群降低风险;对内外部数据进行特征衍生与挖掘,分析与评估,选择最合适,成本优,效果佳的数据源,平衡商业需求的同时,使得模型产品达到效果;负责项目中模型的研究、开发、部署、监控、维护、优化迭代全流程工作。

  • 北京正己基业教育科技有限公司:架构师及算法研发,负责公司AI+SaaS平台的技术架构设计与实施。

  • 北京运道科技有限公司:技术负责人,主导智能物流及供应链金融平台的研发与应用。

 

林老师,大模型技术应用专家
 

16年产业数字化和智能化技术背景,北京航空航天大学计算机仿真专业硕士,挪威工作两年,连续创业者,深谙金融企业的数字化技术路线。

AIGC知名创新企业墨见MoLook创始人和CEO,阿里云前解决方案总监,负责基于云计算、AI、IoT的产品和解决方案沉淀、业务拓展、生态建设,挪威软件公司Prediktor前中国区负责人,ICA联盟工作组组长,阿里云CIO学院讲师。连续3年阿里云产品销售额1亿+,曾服务于陕煤、美孚、中国国网、南方电网、中烟、上海电气、宝钢、物产中大、东方希望等客户。

擅长AIGC的视觉和文本技术,作为多个AIGC项目的负责人,对AI技术在企业落地方面有丰富的经验和深刻的见解。

AI创业公司的LLM项目已落地南信投、欧冶、中烟等企业。视觉项目已落地苏美达、三彩、雅戈尔等企业。

其中南信投、欧冶、宏川等都是金融向公司,林琚率领墨见为这几家公司提供了完整的AIGC解决方案,包括基础大模型、知识库RAG、工作流等方面的技术和应用落地。南信投(资金投资)作为江苏第一大国资金融集团,墨见帮助其搭建AI大模型应用平台,并打造智慧办公、数字员工等应用,与其数字化系统紧密结合。欧冶作为贸易金融公司,墨见帮助其打造票据审核、知识库等金融服务应用。

林琚深谙云计算、大数据、物联网、AI等技术原理和路径,以及在企业落地实现的方式。是技术落地企业的实战派。作为互联网产品解决方案负责人,林琚参与规划与建设了超过300个企业数智化项目,其中包括30个大规模项目,实战经验丰富。作为AIGC公司的创始人,对AI技术以及AI在企业的应用有深度理解。

过往授课主题及培训内容

  1. 大模型的基本原理与架构

  2. 主要大模型框架与技术应用

  1. 金融数据分析与建模

  2. 风险控制与预测

  3. 客户行为分析与推荐系统

  1. 多模态数据融合技术

  2. 图像、文本与语音数据的综合处理

  1. 大模型技术基础

  2. 大模型在金融行业的应用

  3. 多模态内容分析

LLM产品研发和培训案例

  1. 以外部核心技术身份参与金融科技企业研发项目,研发基于大模型的金融风险预测系统,成功提升了风险控制的准确性和效率。

  2. 为该企业技术团队提供大模型技术辅导和培训,覆盖数据预处理、模型训练与优化等内容。

  1. 主持开发基于多模态内容分析的客户行为分析系统,为银行提供个性化推荐服务。

  2. 对银行相关部门进行系统使用与大模型技术应用的培训,促进了新技术在实际业务中的落地。

  1. 与南信投合作开发金融大模型应用平台,推动大模型在金融行业的广泛应用。

  2. 提供针对内部技术人员的专项培训,涵盖大模型开发与应用的各个环节。

  1. 合作开发:金融风险预测系统

  2. 合作开发:客户行为分析与推荐系统

  3. 南信投:金融大模型平台合作项目

 

孙老师,资深大模型算法专家
 

毕业于中国科学技术大学自动化系,拥有20+年IT/AI经验,先后在IBM、华为、顺丰、KPMG等知名企服务于DBS,UBS,HSBC等大型银行客户。2023年起All in生成式AI应用创业,专注于金融领域的AI咨询、系统实施和培训。精通生成式AI相关技术栈和应用系统设计开发。

2023.10-至今:生成式AI研发专家

  • 持续跟踪国内外开源和闭源大模型的发展动态,进行本地部署或通过API集成到系统,熟悉GPT, Claude, Gemini, Llama, Mistral, Command R, GLM, Qwen, Deepseek, Moonshot, Xunfei Spark, Ernie, Yi, MiniMax等模型,能够根据金融行业不同的业务场景进行模型选取

  • 熟悉大量开源嵌入模型和向量数据库,如BGE, Jina, Nomic等系统嵌入模型和Qdrant, Milvus, Chroma, LanceDB, Fincore等向量数据库,并能提供选型建议

  • 熟练掌握Langchain, Llamaindex, Langgraph等生成式AI应用开发框架,并能根据金融行业的业务场景选型和应用

  • 研究了多个开源和闭源平台级产品,包括Coze, DSPy和各模型厂商提供的在线chatbot和智能体平台等

  • 设计开发了多个生成式AI应用,从简单的多轮对话聊天机器人,到RAG、Agent、Agentic Workflow还有Vscode代码生成插件和浏览器插件;精通生成式AI应用系统架构设计和系统调优

  • 部署了stable-diffusion模型进行文生图能力评估测试,同时持续跟踪国内外文生图模型和平台发展, 熟悉国内厂商文生图平台及API

  • 部署并在系统种集成了speech-to-text和text-to-speech的模型,如Whisper, EmotiVoice

  • 进行了多场大模型技术应用培训,包括对金融行业的IT团队进行的“AIGC大模型技术在金融领域的场景化应用“培训。

2017-2023,KPMG中国智能创新中心技术负责人

创建了KPMG中国智能创新中心,管理着从设计、开发、交付、上线到运维的全流程,团队规模将近500人。带领团队面向公司内外部客户设计和开发人工智能、大数据驱动的解决方案,围绕信用、风险、合规等业务领域构建知识库、算法模型和业务系统。服务的客户包括国内外知名企业,如HSBC,平安集团、招商银行、太平洋保险、蚂蚁金服等等。

2001-2014,IBM,从技术开发到业务管理

作为技术团队负责人,带领团队进行应用系统设计、开发、测试、上线和运维;服务的客户包括:PCCW、DBS、国泰航空、UBS、UPS、深圳机场物流园等。

 

关于TsingtaoAI
 
 
 
 
 

TsingtaoAI拥有一支高水平的产学研一体的AI产品开发团队,核心团队主要来自清华大学、北京大学、中科院、北京邮电大学、复旦大学、中国农业大学、美团、京东、百度、中国技术创业协会和三一重工等产研组织。TsingtaoAI核心团队专长于算力、行业LLM/AIGC应用的产品研发,面向企业的大语言模型应用落地等业务,如面向智能客服、教育、人力资源、电商和轨道交通等行业领域的LLM和AIGC应用开发。公司拥有近10项LLM/AIGC相关的知识产权。

 

TsingtaoAI自研基于LLM大模型代码能力的AIGC应用开发实训平台、面向CS专业的AI训练实训平台和基于大语言模型的AIGC案例学习平台,聚焦虚拟现实、金融科技、医药健康、高端装备、新能源、新材料、节能环保、文化创意、农业科技和食品科技等关键行业,通过链接全球数以千计的关键领域的AI科学家和工程师,为央国企、上市公司、外资企业、政府部门和高校提供AI企业内训和高校实训服务。

 

 

Product & Case.

产品与案例