面向工业互操作性与优化的AI驱动数字孪生语义与模块化编排
摘要
Maria Gabriela Juarez Juarez ∗、Adriana Giret、Vicente Botti 瓦伦西亚人工智能研究所,瓦伦西亚理工大学,西班牙
数字孪生(DTs)是智能制造的基础,支持数据驱动的监控和优化。然而,许多实现仍然是单体式的,限制了互操作性和可重用性。本文介绍了一种用于编排AI驱动DTs的语义化和模块化架构,旨在实现跨工业系统的可扩展集成和标准化协调。该系统采用与NGSI-LD对齐的语义API,以暴露工业实体,如流程、异常、资产和情境KPIs(例如,能源使用、CO2排放、工具磨损、产品质量)。从阈值调整到符号学习的AI技术被封装为模块化代理,每个代理执行针对性的优化任务。这些代理在语义API上运行,确保模块间一致且可解释的交互。系统定义了Manager和Recommender代理来协调执行;虽然尚未在运行时部署,但它们的逻辑通过语义接口实现,支持可追溯的模块化激活。系统使用模拟加工、装配和检测任务的综合数据进行验证。结果显示,每个模块激活后,与可持续性相关的KPIs都有可衡量的改进。更重要的是,语义编排层实现了模块化、互操作性和AI重用。这项工作为下一代DTs贡献了一个符合标准的基础,支持与FIWARE、Catena-X和IDS等生态系统的集成,并与Industry 4.0和5.0的原则保持一致。
1.引言
本节介绍了开发语义化和模块化数字孪生(DT)架构的动机,特别是在工业 4.0 和 5.0 背景下。本节概述了关键集成挑战,如单体式设计、相互独立的 AI(人工智能)组件以及有限的互操作性,并阐述了将多智能体系统(MAS)与语义 APIs(应用程序编程接口)相结合的理论依据。此外,本节还强调了研究空白,总结了所提出的解决方案,并定义了本文的贡献和结构。
1.1 背景与动机
近年来,DT 已成为 Industry 4.0 和 5.0 的基石,作为物理资产和流程的同步数字对应体,能够实现实时监测、预测和决策。正如 Kumar 和 Agrawal所强调的,DT 不再是静态仿真,而是动态、智能的系统,是可持续工业转型的核心。然而,许多当前的 DT 实现仍基于单体架构,其中 AI 和数据驱动方法各自独立运行,缺乏模块化和动态协调。这种缺乏凝聚力的状况阻碍了可扩展性,并削弱了系统级集成。
克服这些限制的一个关键因素是采用语义互操作性框架,该框架能够对资产和流程进行一致且机器可读的描述。由 ETSI 提出的 NGSI-LD(Next Generation Service Interface - Linked Data)标准提供了一种基于图形的上下文信息模型,能够利用关联数据原则实现异构组件之间的语义集成 。与此相辅相成的是,由 FIWARE、IUDX 和 OASC 共同开发的 Smart Data Models 计划提供了经过精心策划的、特定领域的本体,确保跨领域的一致性和在数字平台中的复用,从而实现对资产和流程的机器可读描述 。
本方法所采用的此类语义基础设施,有助于开发标准化API,使模块化智能体和服务能够通过可互操作的输入和输出进行运行。MAS特别适合利用这一语义骨干。智能体可以自主激活AI模块、管理上下文依赖关系,并在分布式组件之间协调决策,从而增强DTs在动态环境中的自适应能力。
可持续性已成为现代制造业中不可或缺的要求。最近的研究表明,当编排明确纳入环境KPI(关键绩效指标)(如CO2、废弃物或资源消耗)时,语义增强的DT能够推动能源效率的显著提升和排放的大幅减少。因此,语义API、模块化代理和基于MAS的编排的融合,成为实现可扩展、可解释且对环境负责的优化的战略路径。这一愿景不仅是理论性的,也奠定了本文所呈现系统的基础。
基于该架构,我们的方案旨在满足具体的工业需求,支持在分布式、模块化的智能制造环境中实现实时协同、语义互操作以及自适应决策。
1.2 当前挑战
尽管数字孪生(DTs)作为推动工业智能化的重要力量正日益受到关注,但其仍面临诸多结构与语义层面的局限,制约了其潜力的充分发挥。首先,现有大多数实现采用单体架构,将数据处理、逻辑控制与人工智能功能紧密集成于中心化模块之中。这种单体特性导致各要素高度耦合,严重阻碍了系统的可扩展性,并使得人工智能功能难以在不同流程或场景中复用 。此外,模块化程度的缺失进一步影响了系统的可追溯性,并制约了在动态工业环境中的系统演进能力。
其次,DT 组件的集成往往停留在语法层面而非语义层面,使得跨异构平台的互操作性变得困难。尽管 NGSI-LD 标准为共享上下文信息提供了一种链接数据架构,但其实际采用情况仍然碎片化。此外,诸如 Smart Data Models 倡议所提供的领域本体仍未得到充分利用,限制了生态系统间语义对齐的潜力。
第三,能够实时协调分布式 AI 模块的编排机制普遍缺失或定义不完善。缺乏此类动态协调,难以实现自适应行为和整体系统优化。
最后,许多 DT 优化系统未能纳入环境与可持续性相关指标。这一缺陷削弱了 DT 与 Industry 5.0 愿景的一致性,该愿景旨在平衡融合运营绩效与环境影响。进一步的研究强调,将 KPIs(包括 CO2 排放、能源使用和废物处理)纳入 DT 编排逻辑的重要性。
综上所述,这些挑战凸显了对模块化架构的迫切需求:此类架构应采用 NGSI-LD 等语义标准,利用 Smart Data Models 等经过精心策划的本体,通过 MAS 实现分布式协同,并将可持续性 KPI 融入决策流程。表 1 总结了上述局限性,并阐述了我们提出的架构如何通过语义建模、模块化 AI 封装以及基于代理的编排式协同来逐一应对这些问题。
为进一步夯实上述观点,第 2 节对具有代表性的数字孪生(DT)架构进行了比较分析,着重说明我们的方案如何克服当前在模块化、协同机制和语义推理方面反复出现的局限。这不仅将我们的贡献定位为概念层面的进步,更将其确立为对现有范式未能满足的实际需求的系统性整合。

1.3 工作目标
本研究提出一种面向工业环境的数字孪生(DT)编排的语义化、模块化解决方案。该方案倡导利用可复用的、融合人工智能(AI)能力的智能体,这些智能体基于 NGSI-LD 标准定义的标准化语义 API 以及领域本体进行构建。通过将多智能体系统(MAS)与具备互操作性且符合标准的建模方法相结合,本方法能够实现自适应协同与可追溯的优化。其目标在于支持可持续、可扩展的工业运营,契合工业 4.0 与工业 5.0 的核心原则。
1.4 贡献与创新
本工作为智能、可互操作的DT开发带来了多项创新贡献。技术层面,我们提出了一种分层且模块化的架构,其中AI技术被封装为具有标准化、语义对齐接口的自主代理。语义层面,采用NGSI-LD和来自Smart Data Models的精选本体,确保了跨异构资产和流程的一致集成。组织层面,系统利用MAS通过Manager和Recommender等代理角色来协调去中心化的AI行为。最后,我们的架构将可追溯的环境KPI(如CO2、energy、waste、wear)直接嵌入编排逻辑中,使DT性能与Industry 5.0可持续发展目标保持一致。这些贡献总结于Table 2中,该表将关键研究空白与本工作提出的架构策略进行了对应。

1.5 论文结构
为引导读者了解所提出的方法,本文组织结构如下。第2节回顾了DT框架的最新研究进展,比较了关键范式,并强调了AI集成、语义互操作性和可持续性方面的挑战。第3节介绍了模块化系统架构,详细说明了semantic API、agent角色和系统层级。第4节通过基于真实工业场景的仿真测试平台验证了所提出的方法。第5节展示并分析了每个optimization agent的性能,讨论了系统层面的影响、scalability和robustness。第6节总结了本研究的贡献,探讨了局限性,并概述了未来研究方向。
2.背景与相关工作
DT技术正迅速发展,成为智能制造的关键推动者,弥合了物理系统与其数字对应物之间的差距。随着工厂变得更加智能和互联,将AI集成到DT中不再仅仅是一种增强;它对于理解复杂数据、实时适应和推动重要决策正变得至关重要。然而,尽管人们对这些系统的兴趣和投资不断增长,但许多当前的实现在灵活性、scalability和meaningful interoperability方面仍存在不足。
本节综述了该领域的现状,围绕四个主要主题展开:AI在DTs中的当前应用、支持这些应用的建模方法、语义技术和MAS的作用,以及持续存在的关键局限性。作为此分析的一部分,我们还对具有代表性的DT范式进行了比较综述,重点说明我们提出的架构如何解决它们最紧迫的不足之处。这为更深入地讨论当前挑战奠定了基础,并有助于将我们的贡献置于更广泛的研究格局之中。
2.1 AI 增强的 DTs:当前格局
DTs 不再仅仅是机器的数字对应物;它们正在演变为能够实现实时优化的智能协作者,尤其是在 AI 赋能的情况下。在当前的工业实践中,这种智能最显著地体现在三个应用领域:预测性维护、能源优化和自适应控制。
在预测性维护领域,Soori 等人提出了这样的系统:AI 增强的 DTs 从传感器数据和历史故障中学习,以预测故障并在停机发生之前安排干预措施。这些系统通过将维护从被动策略转变为主动策略,提高了正常运行时间并降低了成本。
关于能源效率,Billey和Wuest阐述了配备AI的DT如何分析实时能耗、识别低效环节,并推荐减少浪费的措施。他们的工作凸显了将智能分析融入日常运营所带来的实际收益,尤其是对于以可持续发展为导向的生产线而言。
自适应控制在动态且对时间敏感的工业环境中正变得越来越重要。在制造业中,Khdoudi 等人展示了配备深度强化学习(DRL)——特别是近端策略优化(PPO)和双延迟深度确定性策略梯度(TD3)——的 DT 如何能够自主实时微调注塑成型参数,在无需操作员输入的情况下显著提升产品质量。同样地,Wang 等人应用进化算法结合随机森林(RF)回归模型,使 DT 能够动态调整分布式能源系统,平衡成本、可靠性和可持续性等相互竞争的目标。虽然这两种方法都取得了令人鼓舞的成果,但它们的设计仍与特定实现紧密耦合,限制了模块化和更广泛的适用性。
符号方法和混合方法提供了互补的优势,尤其在可解释性和生命周期考量至关重要的场景中。Juarez 等人提出了一种用于循环制造中 DT 的基于行为的建模框架。他们的架构结合了符号推理和合成数据,以模拟对变化工艺条件的响应。然而,他们的实现凸显了常见的架构约束:泛化能力有限、缺乏模块化封装以及逻辑静态化。
尽管取得了这些进展,局限性仍然存在。Chen 等人采用了一种混合管道,在工业物联网(IIoT)场景中使用 XGBoost 进行特征选择,并使用长短期记忆(LSTM)网络进行异常检测。虽然有效,但他们的系统仍然聚焦狭窄,缺乏通用接口。这反映了一个更广泛的挑战:正如 Kumar 和 Agrawal所指出的,当前 DT 中的大多数 AI 组件都是以临时方式开发的,直接嵌入到特定任务的架构中,缺乏可复用模块或语义封装。Soori 等人和 Chen 等人也指出,集中式 AI 管道很常见,这限制了跨不同系统的可扩展性和互操作性。
另一个不足之处在于可持续性目标的处理方式。Arsecularatne 等人指出,许多 DT(数字孪生)仅在事后报告环境指标,而非将其纳入决策过程中,从而无法在实时操作中发挥指导作用。
总之,尽管 AI 已显著拓展了 DT 的能力范围,从故障预测到动态控制乃至可持续性管理,但当前的实现往往缺乏架构成熟度,难以满足模块化、复用和互操作性的要求。本文通过提出一种 MAS(多智能体系统)、基于语义的 DT 框架来弥补这些差距,该框架配备符合标准的接口,专为可扩展、自适应且可持续的工业生态系统而设计。
2.2 建模策略
选择如何对 DT 进行建模是一项关键决策,它决定了 DT 的性能表现、适应能力以及与现实世界系统的集成方式。随着时间的推移,三种主要的建模范式应运而生:physics-driven、data-driven 和 hybrid,每种范式都有其各自的优势和取舍。理解这些差异是论证我们方法合理性的关键。
物理驱动的DTs依赖于基于物理定律的数学表示,如微分方程和热力学。这些模型具有高度的可解释性,并与现实现象保持一致,但通常需要深厚的领域专业知识、大量的开发时间以及广泛的校准。在高保真场景中,物理信息神经网络应运而生,用于将物理先验与学习能力相结合。例如,Yang等人提出了一种框架,将物理约束嵌入到神经网络架构中,以模拟工业热力学系统。虽然这提高了准确性,但该设置仍然需要大量资源,并且缺乏对频繁变化的系统或缺乏正式物理模型的系统的适应性。
数据驱动型数字孪生(DTs)采用了一种截然不同的理念。它们利用机器学习(ML)算法直接从传感器数据中学习系统行为,提供了更高的灵活性和更快的部署速度,尤其在拥有丰富实时数据的环境中。Bariah 和 Debbah 分析了此类模型如何在动态变化的场景中促进敏捷决策,并缩短智能工厂中的部署时间。然而,这种方法仍然容易受到数据质量和覆盖范围限制的影响,这可能会削弱其在未见过的运行条件下的泛化能力。

混合DTs试图将基于物理的模型的可解释性与数据驱动方法的适应性相结合。Huang等人在制造场景中展示了这一点,他们将符号规则嵌入学习流程中,以同时捕捉经验规律和意外偏差。同样,Badakhshan和Ball[25]在供应链DTs中实现了混合逻辑,以维持对中断的韧性,在长期规划任务中优于纯数据驱动模型。然而,混合架构往往存在紧耦合、难以扩展和维护复杂的问题,尤其是在适应新领域或应对不断变化的需求时。
-
2.2.1. 论证我们的建模选择
混合型和物理驱动的DT无疑在保真度和韧性方面提供了显著优势。然而,这些优势往往以增加复杂性、灵活性受限以及架构紧密耦合作为代价,而这些架构难以适应动态的工业环境。我们的方法旨在通过采用完全数据驱动的建模策略来应对这些挑战,并通过语义结构化加以增强。
我们并未将物理定律或手工构建的逻辑嵌入系统,而是依赖于基于 NGSI-LD 和 Smart Data Models 的语义层。这一选择不仅仅是技术层面的考量,它源于一种更广泛的设计理念,该理念优先考虑模块化、适应性和跨域兼容性。正如 Bauer所强调的,语义分层支持 IoT 生态系统中可扩展且可复用的架构。Pereira进一步强调了其在实现轻量级且符合标准的集成方面的实际作用,这对于中小企业 (SMEs) 尤为重要,因为它们往往缺乏复杂模型开发所需的资源。
这一决策源于现实世界的约束。许多行业都在遗留系统(legacy systems)、文档稀疏以及不断演变的工作流程(workflows)环境中运营。在这样的背景下,构建和维护物理模型变得不可行。我们的解决方案提供了一个结构连贯的替代方案——它足够灵活,能够响应数据变化,同时又以一致的语义(semantics)为锚点,确保长期的可维护性(maintainability)。
为了更好地理解我们的框架与其他建模策略的对比,表3概述了物理驱动、混合以及我们的数据驱动结合语义方法的主要优势和局限性。这一对比有助于阐明为何灵活且可互操作的架构特别适合动态的真实工业环境。
2.3 MAS与DT架构中的语义互操作性
如前所述,我们的方法建立在通过语义技术构建的数据驱动建模基础之上。然而,要充分发挥此类架构的潜力,还需要补充机制来确保运行时编排、模块化和有意义的互操作性。在这方面,MAS与语义框架的融合正成为构建自适应、模块化且上下文感知的DT的强大基础。
MAS提供了一种灵活的范式,可将工业系统建模为分布式自主智能体集合,每个智能体均能够追求本地目标,同时与其他智能体进行动态协作。这种设计提升了复杂环境中的容错性、操作敏捷性和响应能力。Kalyani和Collier以及Marah和Challenger等研究展示了基于智能体的角色协商的优势,能够实现针对中断的实时重构。同样,Siatras等人将MAS应用于生产调度,阐明了基于协商的协调如何在动态制造环境中提升效率和韧性。
尽管具备这些优势,MAS 往往缺乏语义基础,这限制了它们理解操作上下文或与异构服务接口的能力。正如 Uslu 和 Agent所指出的,工业系统中许多集成 IoT 的 MAS 虽然具有自主性,但缺乏共享的语义层,阻碍了不同系统之间的协作。
语义技术旨在通过提供通用词汇和形式化本体来缩小这一差距,使数据和行为都能在跨平台间被解释。例如,Louge 等人提出了一种基于 Asset Administration Shell (AAS) 的语义事件驱动框架,可根据运行时事件和声明的能力动态组合工业服务。这不仅支持动态服务组合,还能实现考虑上下文语义的决策。互补地,Ma 等人将基于 OWL 的本体与 AAS 模型对齐,促进了 DT 生态系统中 UML 工件与语义表示之间的一致数据交换。
将语义推理嵌入到运行时操作中进一步提高了灵活性。Huang等人描述了一个系统,其中agent根据嵌入在AAS模型中的语义描述符来验证和适应其能力,从而实现上下文感知的行为变化。同样,Göppert等人设计了一个语义pipeline,将本体驱动的建模与自动化部署连接起来,使agent能够在系统运行时不断将其功能与更新的模型保持一致。
NGSI-LD和FIWARE framework等标准在使这些语义层可操作方面发挥着关键作用。作者展示了使用FIWARE组件构建的模块化DT架构,促进了可扩展且符合标准的集成。同样,Schöppenthau等人通过Catena-X倡议,展示了共享本体如何促进安全的跨组织数据交换。然而,Klar等人警告说,许多架构仍然依赖于静态映射,缺乏运行时推理和互操作性所需的语义传播。
尽管MAS和语义框架日益复杂,但大多数现实世界的DT实现仍然碎片化,缺乏系统性整合。例如,Marah和Challenger提出了一种基于规则控制的分层MAS架构,但其外部互操作性有限。同样,Uslu和Agent 批评当前基于IoT的MAS部署未能嵌入足够的语义深度,从而限制了跨代理协作和智能任务协调。
这种架构碎片化反映了更广泛的设计挑战。di Torrepadula等人提出了一种基于FIWARE的多视图DT架构,成功整合了语义层,但明显缺失了代理级编排和运行时自主性——这两项特性对于真正自适应和可扩展的DT至关重要。Acharya等人在其六层互操作性模型中也强化了这一局限性,指出语义整合和组织整合是当前实现中最不成熟的两个维度。
最近的元分析已开始系统地梳理这些问题。Reinpold等人比较了软件智能体和DT,强调虽然DT在高保真状态建模和数据集成方面表现出色,但MAS为去中心化协调、协商和运行时适应性提供了关键能力。然而,缺乏真正统一这两种范式的架构限制了它们的潜在影响。Göppert等人也呼应了这一观点,他们表明基于本体的管道可以自动化语义对齐和部署,但仍依赖外部编排机制。
此外,尽管许多解决方案采用了语义标准,但它们通常实现的是静态或孤立的映射。Klar等人和Schöppenthau等人警告说,语义协调通常无法延伸到运行时环境中,这限制了可解释性和可扩展性。正如Song和Le Gall 所指出的,只有结合使用NGSI-LD模型和FIWARE API才能实现完整的语义对齐,使DT能够在复杂的工业生态系统中作为智能、可互操作的系统运行。
总之,MAS提供分布式智能、运行时适应性和模块化编排,而语义技术确保机器可解释性、能力形式化和跨系统互操作性。然而,这些优势很少被整合到一个连贯的、具备运行时能力的架构中。正如Song和Le Gall 所强调的,实现语义对齐不仅需要像NGSI-LD这样的表达性数据模型,还需要支持执行时互操作性的操作机制。虽然许多现有工作依赖于静态映射或外部控制层,但本研究将语义推理嵌入到智能体级别的编排中,从而在语义上下文化的工作流上实现自适应行为。所提出的架构通过将MAS协调与基于NGSI-LD的数据集成相结合来应对这些挑战,有助于构建更具可扩展性、互操作性和运行时感知能力的DT系统。
2.4 与现有方法的比较
为了将我们的架构置于当今DT领域的大背景下,我们将其与四种成熟的方法进行对比:knowledge-graph框架、functional-block模型、rule-或event-driven引擎,以及基于static ontologies构建的方法。每种方法都提供了某些必要的功能,但没有任何一种能够完全填补这一空白。
Knowledge graphs (KG)将机器、事件和流程编织成一个semantic web,保持模型的一致性并简化跨系统交互。Functional-block架构增加了受欢迎的模块化特性;例如,它们将acquisition、processing和decision-making划分为清晰的层次,但它们通常将"context"视为另一种原始信号,而非共享的含义。Rule-和event-based引擎在毫秒级响应的场景中表现出色;然而,由于它们的触发机制纯粹基于语法,操作人员常常无法理解某条规则为何被触发。Static ontologies在提供统一词汇表和加速初期集成方面表现优异,但当工作流程发生变化或需要更深层的contextual reasoning时,其局限性便显现出来。
一个具体示例有助于阐明这一区别。在加工任务期间,machining_time(加工时间)延长,tool_wear(刀具磨损)增加。当零件进入装配阶段时,assembly_quality(装配质量)下降,到检测时,defects_detected(检测到的缺陷)上升,inspection_outcome(检测结果)将其标记为不合规。rule/event(规则/事件)系统可能会发出基本警报;knowledge graph(知识图谱)可以追踪各工艺阶段之间的关联。Functional blocks(功能模块)会路由信号,但往往无法揭示原因。Static ontologies(静态本体)提供术语,但缺乏适应性。我们的架构结合了语义上下文、事件驱动感知和模块化 agent 协调,以支持生产线上明智的分布式决策。
KG 架构。这类架构利用 ontologies(本体)和 linked data(关联数据)标准,构建实体、过程及其交互的语义丰富表示。在 DTs(数字孪生)中,它们被广泛用于协调来自分布式系统的数据并确保跨域一致性。其维持物理元素与数字元素之间对齐的能力,使其在早期集成阶段和知识驱动分析中具有价值。然而,它们的操作角色往往是被动的:它们编码结构,但不编码行为。在动态工业环境中,上下文快速变化且协调必须适应,这限制了它们的有效性。我们的架构通过将语义模型直接嵌入事件驱动、基于 agent 的执行中来推进这一范式。通过 NGSI-LD 接口,语义变得可操作:agents 基于共享含义进行推理,并实时响应不断变化的条件。这使得 knowledge graphs 从静态存储库转变为模块化和自适应 pipeline 中的操作组件。
面向功能块的架构。这类方法因其模块化和分层结构,已成为工业数字孪生(DT)实现中的主流方案。通过将系统组件组织为不同的功能阶段(通常包括采集、处理和决策),它们实现了清晰的关注点分离,并有助于实现可扩展性和组件级替换。这种结构化设计使其与现有工业标准兼容,并支持增量式部署。然而,一个常见的局限性在于它们依赖于块之间的低级别信号交换,往往缺乏共享的语义层。因此,上下文理解能力丧失,决策在孤立状态下进行,阻碍了整体协调并限制了智能适应能力。我们的架构保留了这些系统的模块化优势,同时克服了其语义局限性。通过集成 NGSI-LD 语义和多智能体编排层,每个流水线阶段都能在共享上下文和自适应行为下运行,使去中心化智能体能够针对事件进行推理,并在整个生产工作流中动态协调决策。
基于规则和事件的系统。基于规则或事件的架构长期以来在工业自动化中发挥着关键作用,尤其适用于需要快速、确定性响应的任务。这些系统监控变量变化(如阈值被跨越或模式出现),并在条件满足时触发预定义动作 。它们的优势在于简单性和速度。然而,由于它们倾向于基于固定逻辑和语法条件运行,很少考虑事件发生的更广泛上下文。例如,一条规则可能检测到加工时间的偏差,但无法评估该偏差是由于材料属性、刀具磨损还是调度变化所致。我们的架构通过将语义直接嵌入到事件的表示和解释方式中,扩展了事件驱动范式。通过共享上下文模型和分布式智能体协调,系统能够动态推理事件,跨流程阶段关联事件,并支持随生产流程演进的自适应决策。
静态本体驱动模型。这些模型提供了一种结构化的方式来表示领域知识,并能够在系统组件之间实现早期的语义对齐。它们在初始集成阶段尤为有用,因为此时术语一致性和模式映射至关重要。例如,Ma 等人 [33] 提出了一种面向 DT 的本体驱动耦合方法,支持模型之间的概念对齐。然而,此类系统通常缺乏对运行时自适应或上下文感知编排的支持,这限制了它们在动态工业环境中的有效性。在这些方法中,本体通常作为静态参考,而非主动推理工具。相比之下,我们的架构通过模块化代理和事件驱动协调,将语义模型纳入操作上下文中,使本体能够在实时决策和分布式执行中发挥直接作用,弥合了描述与行动之间的差距,正如中所设想的那样。
如表 4 所示,我们的架构融合了功能块设计的模块化清晰性、知识图谱的语义丰富性,以及规则和事件驱动自动化的响应能力 ,同时克服了基于静态本体模型的僵化性。其显著特征在于将高度模块化、主动语义和编排式决策制定相结合的方式,这使得分布式代理能够基于共享含义进行推理并实时行动。这种综合使 DT 能够从描述性框架演变为可操作的自适应系统,能够在真实工业场景中支持加工、装配和检测环节的弹性与可扩展性能。

2.5 挑战与局限性
尽管前一节强调了传统 DT 范式的局限性,但在整合 MAS 和语义技术的高级方法中,进一步的挑战依然存在。这些挑战影响着模块化、适应性、语义一致性和可持续性,往往阻碍 DT 实现运行时智能和系统级可扩展性。
首要挑战在于智能组件的模块化和可追溯性有限。尽管 MAS 天然支持将控制逻辑封装为自主、可复用的智能体,但许多 DT 实现仍依赖于紧耦合的脚本或嵌入式例程,导致其智能静态化且难以复用。编排机制很少被外部化为服务级实体,降低了系统演进或扩展的敏捷性。正如文献所指出的,编排逻辑缺乏解耦阻碍了工业 MAS 部署的可组合性和可维护性。
第二个局限性涉及自适应编排的利用不足。尽管MAS框架支持协商和去中心化决策,但大多数现实世界的架构实现的智能体都具有预定义的角色和行为,在运行时提供的灵活性很小。例如,Marah和Challenger提出的分层架构提供了一种MAS结构,但协调仍然是静态的,缺乏运行时可重构性。这限制了系统适应中断或动态变化环境的能力,而对于在非确定性环境中运行的DTs来说,这种能力至关重要。
一个更根本的瓶颈与语义集成有关。尽管本体和共享词表被广泛认为是互操作性的关键,但许多解决方案仍然采用定制的或临时的模型,与NGSI-LD、FIWARE或AAS等公认标准脱节。Rebelo Moreira指出,语义模型通常是在孤立状态下创建的,对正式对齐或复用的支持有限。Benfer和Müller提出在建筑自动化环境中从元数据派生语义,但他们的方法仍然与结构化的本体生态系统脱节。即使是先进的方案,如作者通过AAS进行运行时能力验证,或文章中的模型耦合技术,也主要局限于研究环境,缺乏可扩展的、运行时就绪的集成路径。正如Schöppenthau等人所强调的,许多平台仍然依赖静态或专有映射,阻碍了执行期间的语义推理,并妨碍了跨工业领域的可组合性。总而言之,缺乏动态的、与标准对齐的语义基础设施继续削弱DT系统的可扩展性和自主性,限制了它们作为智能、自感知实体在工业生态系统中运行的能力。
最后,可持续性考虑在很大程度上仍然缺失于DT系统的操作逻辑中。尽管常被提及为长期目标,但能源使用、排放或生命周期指标等环境指标很少被嵌入到代理决策或优化模型中。Acharya等人指出,可持续性在DT互操作性框架的几个维度中都是缺失的。即使是在Huang等人所描述的AAS扩展等进步方向中,可持续性指标也未被视为一流控制变量,这限制了它们在操作决策中的影响力。
综上所述,这些挑战凸显了对更具整合性和情境感知能力的DT架构的需求。尽管在融合AI、MAS和语义技术方面已取得有意义的进展,但许多现有解决方案仍受限于僵化的结构、有限的协调能力,以及仅部分与行业标准对齐的语义层。此外,可持续性虽被广泛认可为重要,但很少被嵌入这些系统的运行逻辑中。作为回应,本文提出的架构旨在通过结合模块化智能体、基于标准的语义和自适应编排机制来推动该领域向前发展。尽管这不是一个完整的解决方案,但它代表了迈向更具互操作性、灵活性和可持续性的DT实现的切实一步。
2.6 本工作的总结与定位
基于对现有范式的比较分析(第2.4节)以及在先进MAS–semantic方法中识别出的挑战(第2.5节),本节将我们的工作置于最新的研究趋势之中。AI与DT的融合正推动工业基础设施向更智能、更自适应、更可持续的方向转型。近期研究已展示了AI在预测性维护、异常检测、能源效率和自适应过程控制方面的潜力。Symbolic和hybrid方法进一步扩展了推理能力,实现了更深层次的可解释性和情境感知。
然而,若干局限性仍然存在。许多实现仍然是单体式的,缺乏模块化或运行时适应性。AI逻辑通常被硬编码到难以复用或重新利用的pipeline中,而semantic集成通常仅限于静态映射或元数据标记。虽然基于MAS的架构越来越多地应用于去中心化调度和编排,但它们与NGSI-LD、AAS或FIWARE等semantic标准的连接仍然很少。此外,Louge等人提出的event-driven架构以及Göppert等人的pipeline展示了semantic运行时策略,但往往依赖于特定平台或缺乏可泛化的编排机制。最后,尽管sustainability经常被强调为一个动机,但它很少作为正式的控制维度嵌入到决策逻辑中。
为了整合文献中的这些见解,表5提炼了这些观察结果,沿五个维度定位了主要贡献和反复出现的不足:AI优化、语义、MAS协调、可持续性以及标准合规性。模式显而易见:强大的构建模块确实存在,但大多数提案仍未能融合成具有凝聚力、模块化且真正具备运行时推理和适应能力的DTs框架。
为解决这些差距,本研究引入了一种模块化架构,将可复用的AI智能体与MAS驱动的编排相结合,并以符合NGSI-LD标准的语义模型为基础。该方法支持即时推理、情境感知的协调以及通过标准化APIs进行交互,同时将可持续性KPIs直接嵌入到运营反馈循环中。我们提供的不是又一份抽象蓝图,而是一个与真实工业需求和持续标准化工作相契合的具体、可操作的解决方案,尤其是在数据驱动的编排必须与语义集成共存的场景中。

通过弥合MAS、语义建模和运行时互操作性之间的鸿沟,本工作有助于开发更灵活、可解释且可持续的DTs系统,使其能够在动态和异构的工业环境中运行,同时与下一代产业的可持续发展目标保持一致。这些改进直接解决了前文所述的模块化、协调和语义集成挑战。
从工业角度来看,MAS实现的编排不仅仅是塑造系统架构,更转化为实际的运营价值。模块化设计支持渐进式部署,不会干扰正在进行的生产,使其适用于数字化成熟度参差不齐的工厂。通过依托NGSI-LD和Smart Data Models,系统确保传统机器与现代平台之间的无缝通信。事件驱动的智能体实现加工、装配和检测阶段的实时协调,有助于减少停机时间并提高整体吞吐量。关键在于,将刀具磨损、能源使用和排放等KPIs整合到决策循环中,意味着每一次优化举措不仅与性能目标保持一致,更与更广泛的可持续发展要求相符。这些特质使所提出的方法不仅在技术上稳健,而且真正与Industry 5.0环境的现实和期望相一致。
3.拟议架构
AI赋能的DTs继续面临众所周知的局限性:集成流程僵化、语义互操作性薄弱、模块化程度有限,以及对上下文感知自适应和可持续性目标的支持不足。为应对这些挑战,我们提出了一种模块化、面向智能体的架构,该架构基于开放语义标准,旨在支持跨异构工业环境的模拟实时执行。
最近的研究越来越主张DTs与智能智能体之间更紧密的集成,以支持自主行为和上下文驱动的协调。与此同时,基于NGSI-LD和AAS的语义模型在工业系统中提升了互操作性和可扩展性。然而,许多现有实现仍然依赖静态映射和外部控制层,缺乏执行时的语义推理能力。
我们的方法通过将语义逻辑直接嵌入MAS的编排层来解决这一局限性。智能体能够感知和响应不断演化的符合NGSI-LD标准的事件与能力描述,从而实现动态的、上下文敏感的行为。符号化知识与基于AI的组件沿统一的执行路径运行,使数字模型和智能体能够在模拟的实时循环中连贯地交互。该架构完全符合FIWARE、Catena-X和AAS等开放标准,支持可扩展、可解释且可审计的DT部署。
3.1 系统概述
图1提供了所提出的DT系统的高级执行视图。它展示了模拟传感器数据如何流经语义增强管道,触发基于代理的编排,并激活AI驱动的优化任务。编号步骤追踪了从数据生成到决策输出的流程,作为表6的锚点。为了阐明每个步骤的背景,表6提供了执行管道的详细 walkthrough,指定了负责的组件及其在整个架构中的操作角色。
图2展示了所提出的DT系统的内部架构,该架构分为五个相互关联的功能层,共同支持智能行为、语义集成和可持续性对齐。
在基础层,Data Layer 模拟加工、装配和检测等工业操作,生成能够捕捉真实制造过程动态的合成传感器数据流。该层不仅产生原始数据,还维护一个基于扩展 NGSI-LD 本体论的语义信息核心,该核心形式化了特定领域的实体及其关系,以实现整个系统内的语义互操作性。
接下来,Data Layer 生成的语义增强数据由 Smart Data Ingestion Layer 摄取,该层作为系统的语义网关。这一层提供符合 NGSI-LD 标准的 RESTful API,为数据摄取、查询和分发提供标准化且模块化的接口。通过该 API 整合通信,架构实现了各组件之间的解耦,并促进了与 FIWARE 和 Catena-X 等外部平台的集成。
协调的核心位于 Orchestration Layer,该层围绕 MAS 构建。两个主要代理——Manager Agent 和 Recommendation Agent——持续解读传入数据的语义上下文。基于预定义规则和实时条件,它们决定触发哪些优化任务以及如何路由执行流程。关键在于,这种决策机制并非硬编码,而是灵活、具备上下文感知能力,并基于共享的语义词汇,从而允许系统在不进行全局变更的情况下持续演进。
位于编排(orchestration)与优化(optimization)之间,Context-Aware Trigger Module 在生命周期管理中发挥着至关重要的作用。它利用存储在 Data Space 中的模型相关元数据(如版本信息和重新训练状态),来评估是否需要对 AI 模型进行重新执行、替换或重新训练。这一机制确保优化层始终保持与上下文的相关性,并能响应不断变化的运营需求。
Optimization Layer 包含四个 AI agent(T1 至 T4),每个 agent 均经过封装并设计为独立运行。这些 agent 分别负责阈值监控、异常检测(L* algorithm)、行为分类(BFS)和模式优化(hybrid k-Tail)。每个 agent 支持不同的性能目标和可持续性指标,例如能源使用、缺陷预测或排放减少。



至关重要的是,这些 Agent 所利用的行为模型和分析模型都存储在一个专用的模型仓库中,该仓库已集成到 Data Layer 中。此仓库负责管理与模型版本、训练数据来源以及重新训练计划相关的元数据,确保完整的可追溯性和有效的生命周期管理。虽然动态在线模型更新和完整的 MAS 部署是计划中的未来增强功能,但当前设计已为这些能力奠定了可扩展的基础。
最后,Output Layer 负责整合并交付可操作的洞察。Visualizer Agent 生成 3D 可视化和模拟的实时 KPI 仪表板,而 Reporting Agent 则生成详细的日志和结构化摘要报告。这些输出会反馈到系统中,以影响上游的编排和优化,从而促进基于语义感知和可持续性目标的持续自适应改进。
需要强调的是,整个系统目前均在模拟环境中运行,包括数据生成和 Agent 行为。尽管架构中指定了 Manager 和 Recommendation Agents 等组件,但它们的完整运行时部署和动态编排能力仍处于积极开发中。这种分阶段的方法确保了一个稳健且模块化的架构,能够支持未来的集成和实际应用。
总体而言,如图2所示,该分层架构提供了一个透明且可追溯的执行流程,涵盖从模拟数据生成和语义增强,到基于模块化代理的编排和AI驱动的优化,最终实现可操作的洞察交付和系统反馈。
阅读指南。第3节的其余部分将解析系统的内部逻辑。3.2节介绍生成输入信号的模拟数据源。3.3节解释语义模型和NGSI-LD实体。3.4至3.7节追踪图1和表6中概述的执行路径,详细说明语义事件如何激活代理和AI技术。该节在3.9节结束,将执行结果与KPI监控和可追溯性联系起来。
3.2 数据模拟
在我们DT架构的核心是一个模拟元素,它使工业流程变得生动,不仅在结构上,更体现在它们的行为方式、变化规律以及与上下文意义的关联上。我们没有采用静态数据集,而是设计了一个完全可编程的环境,能够实时反映工厂运营的动态变化。这一层作为系统的感知基础,持续将语义结构化的数据输入到DT的决策管道中。
我们使用模块化Python脚本实现了三个虚拟生产流程:CNC(Computer Numerical Control machine)加工、机器人装配和自动化检测。每个模块都模拟真实的行为和交互。例如,加工过程对刀具磨损、主轴温度和冷却液流量进行建模;装配脚本捕捉机器人运动过程中的压力和振动读数;检测程序则通过视觉和传感器反馈模拟实时缺陷检测。每个流程均以一秒为间隔发出带时间戳的传感器数据,形成详细的操作信号流。
为了更好地反映现实世界的复杂性,我们引入了受控变化和脚本化异常,例如过热事件或过度振动。这些情况使我们能够测试系统在压力下的反应方式,无论是检测故障、从性能下降中恢复,还是触发纠正措施。同时,仿真保持一致性和可重复性,这对于验证AI行为至关重要。
使这一层真正具有智能的是其与语义建模的深度集成。每个数据点,无论是温度读数还是缺陷警报,都被封装为NGSI-LD实体。温度尖峰不再仅仅是一个数字:它是一个AnomalyEvent,与特定的Machine、其Sensor以及受影响的KPIs相关联。Component、Tool和Machine等实体被定义了丰富的元数据,包括版本控制、操作阈值和供应商信息。这种结构使得整个DT系统能够实现完整的可追溯性和领域感知推理。
虽然该层并不直接触发MAS内的智能体行为,但它发挥着至关重要的支撑作用。它生成上下文信号,如阈值突破或维护提示,为编排决策提供依据。这些信号由基于规则的逻辑进行评估,而非硬编码,使系统能够随着条件变化而动态适应。
本质上,该层远不止是一个测试平台。它充当虚拟世界与可执行操作之间鲜活的智能接口。通过生成语义增强数据,它使DT能够解读其环境,并基于结构化的实时上下文做出明智决策。这些语义结构化事件作为DT系统下游组件的主要输入,尤其是编排层,智能体在此以模拟实时方式解释并响应NGSI-LD实体。
3.3 语义信息模型与本体设计
我们的语义模型为描述 DT 系统内的数据、行为和交互提供了结构化基础。它支持机器可读的可追溯性、情境化决策,以及与外部基础设施的互操作性。该模型基于 NGSI-LD 规范 ,利用实体关系图实现关联数据表示,并通过 Smart Data Models 计划 进行扩展,融入了工业领域语义。
我们选择 NGSI-LD 是因为它与现有 IoT 平台(如 FIWARE )兼容,并且能够建模复杂的时间和因果关系。其结构天然支持基于图的查询、生命周期跟踪,以及跨多个代理的去中心化更新。
我们的语义信息模型的构建遵循了一个多层次流程,旨在平衡互操作性与领域特定的表达能力。关键阶段包括:
-
基础层:复用了符合 NGSI-LD 标准 的现有 Smart Data Models,包括 Component、Process 和 SensorData 等核心实体。这些为数据一致性和外部平台集成提供了语义骨干。
-
实体层:根据系统特定需求,添加了自定义实体,如 Tool、Machine、Anomaly、Failure、KPIs、Intervention 和 ExecutionCommand。每个扩展都包含反映领域逻辑的上下文属性,例如操作阈值、材料特性、退化模式或模型调用参数。
-
语义关系:定义了明确的链接,如 hasObservation、generatedBy、affects 和 influences,这些链接实现了因果、时间和上下文的集成。这些链接构成了可追溯性和可解释编排所需的基于图的结构。
图3提供了语义主干的高级视图,该主干构建了DT内部交互的结构。它突出了关键实体,如Process、Component、SensorData、Failure和Anomaly,这些实体通过actsOn、generates和consumes等语义关系相互连接。这种面向图的视图支持诸如异常可追溯性、因果推理和自适应响应规划等推理任务。
需要注意的是,图3是对ontology的高级抽象,代表的是结构概览而非完整规范。完整模型通过下一小节中提供的实体和关系定义进行形式化描述,这些定义将ontology建立在操作语义的基础上,并支持在整个DT执行管道中进行上下文感知的推理。



-
3.3.1. 核心实体定义
该ontology基于一系列核心实体,这些实体既代表地面层面的物理实体,也代表智能决策所需的抽象实体。这些实体是情境化推理、异常检测和智能体协调的基础。关键要素及其在DT中的角色如表7所示。
-
3.3.2. 语义关系
模型的语义表达能力通过一组精心策划的关系得到增强,这些关系定义了实体在系统内如何交互。这些关系在监控、诊断、推理和控制方面发挥功能作用。表8总结了DT生命周期中最相关的链接及其用途。
这些关系构成了语义推理的核心骨架。例如,在加工过程中检测到SensorAnomaly时,会自动关联到受影响的Component,传播至受影响的KPIs,并可能触发Intervention,从而形成从观察到决策的闭环。
-
3.3.3. 语义序列化
为支持集成、互操作性和机器推理,本体中的所有实体均按照 NGSI-LD 标准,采用 JSON-LD 编码进行序列化。该结构使语义数据能够被代理和外部系统实时查询、更新和理解。图 4 包含一个序列化 Component 实体的示例。该结构包括属性值以及与其他实体的语义引用(例如,关联的流程)。
图 5 展示了一个序列化的 ExecutionCommand 实体。尽管完整的运行时编排尚未投入运行,但当语义条件(例如,异常严重性或 KPI 偏差)激活为代理层定义的推理逻辑时,会在概念上生成此实体类型。它引用目标模型、触发上下文和决策元数据,为在 DT 内管理优化任务提供了一种正式且可扩展的方式。
这些机器可读结构确保所有上下文数据在各类代理和服务之间始终保持可访问且有意义。它实现了一致的决策制定、透明的可追溯性,并与工业 4.0 和 5.0 所倡导的语义标准完全对齐。
3.4 用于生命周期和可追溯性的数据空间
除了实时消息交换之外,语义数据空间还充当持久的知识层,锚定 DT 生命周期的每个阶段。该数据空间基于 NGSI-LD 原则构建,将模型、KPIs、触发器和决策输出存储为机器可理解且人类可审计的丰富注释实体。这些实体不仅提供可追溯性,还作为语义层与基于代理的编排之间的通信媒介。具体而言,TriggerEvent 实体可能会触发 ExecutionCommand 的创建,进而激活由专用代理处理的推理过程。


每个预测、分类或检测到的事件,无论是异常标志(anomaly flag)、模型输出还是KPI偏差,都被持久化为一流的NGSI-LD实体。典型示例包括ModelMetadata、TriggerEvent和KPI。这些实体被赋予了丰富的上下文属性(例如置信度分数、时间戳或来源链接),并明确连接到其来源,例如生成它们的物理组件、流程步骤或软件代理。它们并非构成静态日志,而是形成一个可导航的决策图,支持内省(introspection)和闭环优化(closed-loop optimization)。
特别是,ModelMetadata 实体捕获行为模型的完整生命周期,包括版本标识符、训练溯源、超参数和性能指标。尽管当前的仿真尚未执行在线重新训练,但语义编码已经支持未来功能,如自动模型替换、回滚或 A/B 测试。
Context-Aware Trigger Module 持续评估整个数据空间中的语义模式。例如,当模型达到其 retrain_due 阈值或 KPI 漂移超出可接受范围时,该模块会发出新的 TriggerEvent。此事件可能导致生成 Execution Command 实体,从而激活基于代理的推理或 AI 驱动的行动。根据上下文,代理可以启动重新优化例程,或启动纠正控制行动,使 DT 能够自主适应不断变化的条件。
该架构提供了完整的可追溯性和可解释性。从任何异常警报出发,都可以遍历图谱追溯到生成该警报的模型,检查做出决策时的环境条件,并审查随后采取的行动——无论是人工还是自主行动。由于所有工件都在语义上相互关联,诸如"当 KPI_X 降至 80% 以下时,哪个模型版本处于活动状态?"之类的查询只需单次跳转即可得到答案,为工程师和数据科学家提供了透明且可审计的系统行为视图。为何选择 data space 而非传统存储?关系数据库擅长本地 ACID 事务,纯 RDF 三元组存储专注于 SPARQL 查询应答;两者都无法原生支持企业间 DT 生态系统所需的联邦式、策略感知的上下文交换。NGSI-LD data space 作为联邦上下文代理运行:(i) 每个实体都携带符合 IDS-RAM 标准的使用控制元数据,实现跨组织边界的数据主权;(ii) 代理提供高频上下文事件的发布/订阅交付,而传统存储只能通过轮询近似实现;(iii) ModelMetadata、TriggerEvent 或 ExecutionCommand 等生命周期工件是一等公民,而非应用层的变通方案。这些能力使 data space 成为构建可互操作、可追溯且策略治理的 DT 架构的关键,这是独立 SQL 引擎或 RDF 存储无法实现的。
3.5 Agent 通信与相互依赖关系
正如 3.1 节所述,该架构被组织为一个自主软件 Agent 团队,这些 Agent 相互协调,各自承担特定的分析或操作角色。Agent 在设计上是模块化的,但它们基于共享的语义基础进行工作:通过 NGSI-LD 实体交换信息。使用相同的"语言"使得整个数字孪生系统内的交互保持一致且可被机器解读,因此 Agent 能够做出明智的决策、触发下游操作,并在无需紧密耦合的情况下更新全局系统状态。在实践中,这种关注点分离(separation of concerns)提升了可扩展性,并使组件更易于复用。

表9总结了系统模块与代理(agents)之间的主要语义交互。每一行表示一个通信链路,由源(source)、接收方(recipient)以及用作语义消息的NGSI-LD实体定义。
这些交互既包括分析输出(如 KPI、Anomaly 或 OptimizationResult),也包括控制级消息(如 TriggerEvent 和 ExecutionCommand)。所有消息均被编码为实体并存储于共享数据空间中,这使得 agents 能够以异步和松耦合的方式运行。
该设计促进了模块化和自适应协调:semantic messages 始终保持可访问状态,可用于监控、分析或触发下游操作,从而使系统逐步演进至更高程度的自主行为。尽管某些控制流(如基于高级建议的执行)尚未激活,但它们已在 semantic model 中定义,从而实现了无需重新工程的渐进式集成路径。
所有智能体都在一个共同的语义基底上运行,该基底由共享的NGSI-LD实体组成,例如Component、KPI、TriggerEvent、Anomaly、ModelMetadata和ExecutionCommand。这种共享上下文构成了分布式决策的基础,使智能体能够解读相同的状态、得出洞察并协调行动,而无需硬编码链接或直接依赖关系。通过依赖这些通用实体,系统确保了语义一致性,并促进了模块间的互操作性。
在此共享基底之上,特定的交互流程规定了智能体如何将分析信号转化为行动。例如,TriggerEvent编码了一个与上下文相关的条件,如KPI偏差、异常检测或模型过期,通常由分析组件或上下文感知的Trigger Module发出。一旦记录在数据空间中,此类事件可被推理智能体(如RecommendationAgent)消费,该智能体评估其上下文并发布recommendedTechnique注解;随后ManagerAgent生成并发布相应的ExecutionCommand。这些命令指示其他智能体(如优化或输出智能体)执行特定的操作步骤,从模型重新训练到流程重新校准。
该语义路径确保了触发器(Trigger)与动作(Action)保持解耦却又协调一致。ExecutionCommand 实体充当上下文检测与分布式执行之间的桥梁,从而实现松耦合架构,使各 agent 能够独立地为系统自适应做出贡献。
尽管从 TriggerEvent 到上下文推理再到 ExecutionCommand 的完整语义闭环在当前部署中尚未激活,但它已在本体论(ontology)中完全定义。所有必需的 NGSI-LD 实体和 agent 接口均已就绪,确保自主编排能力可以以最小的集成开销逐步激活。
3.6 语义API:实现互操作性与智能体解耦
语义API作为NGSI-LD数据空间与架构上层之间的核心接口,上层包括推理智能体(reasoning agents)、编排模块(orchestration modules)和仪表盘(dashboards)。它提供符合NGSI-LD标准的端点(endpoints),支持对核心工业概念进行标准化访问,这些概念包括组件、流程、传感器数据、异常、故障和干预措施。该接口基于FastAPI构建,遵循RESTful设计原则,以JSON-LD格式返回响应,并与Smart Data Models倡议保持一致,以确保跨服务的语义互操作性。
该API支持解耦和模块化开发,允许agents和services在无需直接依赖的情况下交换信息。agents并非直接相互调用,而是依赖于发布到API或从API查询的语义描述实体,从而实现灵活的编排和未来的可扩展性。该架构还与FIWARE和Catena-X等生态系统平台保持一致,便于最终集成到更广泛的工业框架中。此外,它作为主要网关,供agents、编排模块和dashboards访问上下文数据并发布语义更新。
目前,该API在模拟环境中运行,专注于检索用于上下文推理和评估的数据。每个endpoint提供由simulators生成的语义注释实体,使agents能够访问一致且有意义的数据结构。虽然当前实现仅限于读取操作(GET),但该架构旨在不久的将来支持更多功能,如实体创建(POST)、更新(PATCH)和事件驱动订阅(SUBSCRIBE),符合NGSI-LD规范。
可用端点包括:
-
/v1/components:列出仿真中注册的所有工业组件。
-
/v1/components/{id}/anomalies:获取与特定组件关联的已检测异常。
-
/v1/components/{id}/processes:提供加工、检测或装配执行的语义轨迹。
-
/v1/failures, /v1/interventions:报告故障事件及相应的纠正干预。
-
/v1/sensors, /v1/sensors/realtime:提供用于上下文监控的实时或记录传感器数据流。
-
/v1/event-traces:聚合关键事件的语义轨迹,用于分析和模型评估。
-
/v1/analytics:提供可持续性指标的动态计算,例如 toolWear、energyUsage 或 co2Emissions。

图 6 所示,向端点 /components/5/anomalies 发送请求会返回 JSON-LD 格式的语义结构化响应。该响应包含异常指标,例如 toolWearAnomalous 和 coolantUsedAnomalous,每个均类型为 NGSI-LD Property,并具有二进制值。这些结果按块组织,并通过组件 ID 进行引用,支持下游模块(如 Context-Aware Trigger Agent)评估是否发生了运行异常。这种松散协调方式最大限度地提高了架构各阶段模块之间的灵活性、可解释性和集成性。
尽管它运行于模拟系统之上,但配备了完整的 OpenAPI 文档、单元测试(pytest)以及 Postman 测试。因此,它已为最终通过实时数据流进行部署做好了充分准备,同时仍能保持语义一致性和系统范围的互操作性。
3.7. 多智能体编排逻辑
基于上一节详述的共享语义基础和解耦通信通道,本部分介绍编排逻辑,该逻辑 governs 智能体如何在 DT 环境中协调其行动。此逻辑并非硬编码或集中式,而是源于一个分布式且具备语义感知能力的决策框架,该框架依赖于共享的 NGSI-LD 实体。通过利用语义 API,系统中的每个组件(从监控到优化)均通过明确定义的事件类型、共享状态表示和模块化触发器进行交互。在本节中,我们呈现此流程的关键编排器:上下文感知触发模块(Context-Aware Trigger Module)、推荐智能体(Recommender Agent)和管理智能体(Manager Agent),阐述它们如何协作以检测相关情境、选择最合适的技术,并分发执行命令。它们共同构成了一个灵活、透明且面向未来的协调机制的核心支柱。
我们的DT系统中的编排逻辑由三个核心组件之间的语义协调交互所 govern:Context-Aware Trigger Module、Manager Agent 和 Recommender Agent。这些组件通过 NGSI-LD 知识图谱异步交换信息,形成一个松耦合但完全可追溯的控制循环。它们的角色和交互基于前文详述的本体,依赖于 Trigger、ExecutionCommand、KPI、Model 和 Anomaly 等关键实体。
Context-Aware Trigger Module(上下文感知触发模块):该模块作为一个语义监控单元,持续检查诸如 SensorData、Component 和 Process 等实体。它应用声明式的 NGSI-LD 订阅规则,基于以下条件检测可编排的状态:
-
– KPI 偏差(例如 errorRate 超出其阈值或 throughput 低于其目标值)。
-
– 通过 Anomaly 实体检测到的异常(例如 SensorAnomaly、MachiningAnomaly)。
-
– 语义状态变化(例如 ProcessState = degraded)。
-
– 周期性触发(例如 Trigger.retrainDue = true)。
-
当声明的监控条件被满足时,该模块会生成一个 Trigger 实体,以语义化方式封装原因、时间戳和来源。该对象通过 triggers 关系启动下一层编排,避免任何过程式耦合。
-
一旦满足这些条件,Manager 便会使用当前上下文调用 Recommender Agent。收到推荐后,它会生成一个 ExecutionCommand 实体,该实体编码了以下内容:
-
– TargetAgent:所选的 AI 模块(例如 T1–T4),
-
– RecommendedTechnique:Recommender 建议的技术,
-
– TriggeringCause:对原始 Trigger 的引用,
-
– Execution metadata:包括 timestamp、execution Parameters 和 priorityLevel。
-
该命令被发布到共享语义空间中,使订阅的 optimization agents 能够自主执行。

Manager Agent 执行的逻辑如清单 1 所示,该清单总结了语义编排流程。该循环监听触发事件,验证上下文,向 Recommender Agent 请求适当的技术,随后将执行命令分发给适用的 Agent 以执行所选任务。
• Recommender Agent:
Recommender Agent 仅在识别出有效的 Trigger 实体时才由 Manager Agent 激活。其主要职责是评估当前的语义格局,并确定最合适的 AI 技术来应对观察到的状况。该评估利用多个 NGSI-LD 实体,包括 KPI、AnomalyType、ProcessState 和 ProductionEnvironment,这些实体共同定义了系统的运行和上下文状态。
为执行其推理,Recommender 通过评估以下内容来检查可用的 Model 实例:
-
定量性能指标,如 F1-score、precision、latency 和 successRate,用于捕捉每个模型的过往有效性。
-
训练谱系和相关性,用于确定每个模型的训练上下文与当前异常模式或流程偏差的匹配程度。
-
部署历史和兼容性,确保所选模型适用于特定环境并符合版本约束。
在此分析之后,智能体发出一个推荐的 Technique 标注。该实体在语义上与所选 Model 和原始 Trigger 均相关联,确保推理链的可追溯性。此建议作为 Manager Agent 构建正式 Execution Command 的核心输入,将上下文理解与可执行操作连接起来。
总而言之,该三元编排模型构成了一个完全可解释且可检查的决策循环。所有协调活动、监控、建议和执行均由标准化的 NGSI-LD 实体和关系驱动,例如 triggers、linkedTo 和 generatedBy,这些要素实现了可追溯性、符合语义标准,并能无缝扩展至未来的自主能力。
在介绍了核心代理的角色和交互之后,我们现在转向协调这些代理的工件。其中,ExecutionCommand 实体在将推理结果转化为可执行指令方面发挥着关键作用。为了确保概念清晰并强化编排循环的语义,我们提供了对该实体的重点描述,并附上一个对比表,将其与启动流程的上游 Trigger 事件区分开来。
ExecutionCommand 实体在将决策转化为可执行操作方面发挥着关键作用。一旦 Manager Agent 收到来自 Recommender Agent 的已验证建议,且所有执行前置条件均满足,它便会构建此实体,以正式确定编排流程中的下一步。
从结构上看,ExecutionCommand 是一个符合 NGSI-LD 标准的实体,它包含以下内容:
-
TargetAgent:为任务选定的技术执行器(例如,T1 用于阈值监控,T2 用于异常检测,T3 用于状态分类,T4 用于模式优化),
-
RecommendedTechnique:由推荐器推断出的最合适的 AI 方法,
-
TriggeringCause:指向原始 Trigger 实体的指针,以保持端到端可追溯性,
-
ExecutionParameters:运行所需的可选配置值或超参数,
-
Timestamp:用于管理调度并记录编排时间线。
在设想的运行时部署中,该实体将通过 NGSI-LD 接口发布到共享语义数据空间,并附带适当的上下文元数据。每个优化代理(T1–T4)都通过语义进行描述,明确其能力和范围,例如可执行的技术及其适用的流程。这些代理将订阅 ExecutionCommand 实体,其属性与代理声明的执行条件相匹配。接收到命令后,被选中的代理将自主检索该命令,执行相应的例程(例如阈值监控、异常结构推断、行为预测、模式优化),并将更新发布到受影响的领域实体,如 KPI、Process 或 Component。尽管此响应式循环尚未在实时环境中运行,但语义结构和代理描述符已完全实例化,确保与未来部署中的异步发布/订阅中间件兼容。
为阐明它们在编排流程中的各自角色,表 10 总结了 Trigger 实体与 ExecutionCommand 实体之间的概念和功能区别。虽然两者对于代理间的语义协调都至关重要,但它们在不同的抽象层级上运行,并在决策循环中发挥互补作用。
3.7.1. Event-to-action semantic flow(事件到动作的语义流)
编排管道以一系列语义编码的步骤推进,引导系统从上下文感知过渡到目标执行。决策、触发器和 agent 交互并非通过硬编码程序实现,而是表示为通过公共 knowledge graph 共享的 NGSI-LD 实体。这种设计确保了所有组件之间的模块化、松耦合和完全可检查性。
流程始于语义监控,最终实现自主执行,具体步骤如下:
Context-Aware Trigger Module 检测到触发条件,例如 KPI drift、anomaly detection 或 scheduled re-training。验证通过后,它会发出一个 Trigger entity,其中封装了原因和时间戳。
Manager Agent 对此 Trigger 做出响应,并咨询 Recommender Agent,向其提供完整的语义上下文。
Recommender Agent 使用性能指标(如 F1-score、latency)、训练来源(training provenance)和领域适配性(domain fit)来评估所有可用的 Model instances,返回一个与 Trigger 关联的 recommendedTechnique annotation。
在验证 agent readiness、criticality 和 scheduling constraints 后,Manager Agent 生成一个 ExecutionCommand entity。这将下一步行动正式化,指定目标 agent、选定的 technique 和相关配置参数。
虽然 techniques T1–T4 已完全实现并具备功能,但尚未通过 ExecutionCommand entities 触发。在未来的部署中,这些 optimization agents 将自主订阅与其声明能力(declared capabilities)匹配的此类 commands。接收后,每个 agent 将执行其对应任务,例如 threshold monitoring、anomaly detection、pattern detection 或 behavior forecasting,并通过 KPI、Process 或 Component entities 将更新发布到 semantic space。
此事件到行动的循环确保所有编排逻辑都具有上下文感知能力、完全可追溯,并符合语义标准。通过将推理和控制决策封装为NGSI-LD实体,它实现了一个灵活、面向未来的框架,可准备与异步中间件和工业平台集成。
图7展示了此编排序列,显示了语义监控器发出的事件如何通过代理之间明确定义的NGSI-LD交互,激活协调的推理和执行。
此编排模型与分布式智能和MAS中新兴的范式保持一致,并与AutoGen [47]和OpenMAS等框架兼容。因此,它支持当前的工业集成需求,同时实现未来的跨领域扩展和协作决策。
总之,编排逻辑提供了一个模块化、可适应且完全可检查的框架,用于通过语义定义的角色和职责来协调自主代理。虽然尚未在运行时循环中运行,但所有语义实体和交互、Triggers、ExecutionCommands和recommendations都已完全实例化,并符合NGSI-LD标准。此基础实现了优化技术的无缝集成,我们将在下一小节中详细探讨。


3.8. 优化层(Optimization Layer)
为实现智能化、情境感知且与可持续发展目标相一致的决策,我们的架构集成了一个专用的优化层,该层由四个自主代理(autonomous agents)组成,每个代理封装了一种独特的基于 AI 的技术。这些代理在语义层面实现集成,并基于符合 NGSI-LD 标准的数据运行,确保完全的互操作性、模块化和可追溯性。
代理的激活并非仅依赖反应式触发,而是由编排层(orchestration layer)内的管理代理(Manager Agent)进行协调。这种协调机制支持动态执行逻辑,其中各项技术可按以下方式调用:反应式(例如,响应异常情况)、周期性(作为计划优化例程的一部分)或主动式(基于预测的性能退化或趋势)。该模型支持从被动响应向预期行为的转变,使 DT 成为一个能够自我改进、面向未来的系统。
DT作为一个自我改进、面向未来的系统。
每个智能体都针对与工业和环境KPIs相关的优化目标,包括能源消耗、CO2排放、工具磨损和缺陷率。它们的内部逻辑在数据驱动、符号和混合方法之间有所不同,使每种技术能够解决生产生命周期内的不同挑战。输出结果经过语义标注并发布回共享语义数据空间,确保与NGSI-LD模型保持一致,并实现可解释性、可审计性和迭代优化。
以下各小节详细介绍了每种AI优化技术(T1–T4),描述了它们的目标、底层算法、预期输入和输出,以及它们对关键可持续性和性能指标的影响。
-
3.8.1. 技术 1 – 阈值监控(Threshold Monitoring)
该技术通过重新校准操作阈值,在重复性工业工作流程中提升产品质量、能源效率和环境合规性。它尤其适用于由专家知识或历史模式定义可接受范围的场景,例如加工时间、能源使用或组件质量等指标。
作为独立的优化代理(optimization agent)实施,该方法分为两个阶段:首先强制执行基线阈值($T_i$)的合规性,然后应用更具雄心的目标阈值($T'_i$)以推动持续改进。该方法不改变原始过程数据,而是基于上下文规则和预定义限制调整数值,从而确保语义一致性和鲁棒性(resilience)。

重新校准过程遵循语义引导的逻辑。每个变量都根据其边界进行评估,当检测到偏差时进行修正,从而保持数据完整性。这些操作可通过 NGSI-LD 注释进行追踪,从而实现数字孪生内部的可解释性和互操作性。
如算法 1 所示,该技术调整运行数据以确保其保持在定义的性能包络范围内。生成的输出包括优化值、更新的 KPI 和可选的语义日志,这些可以路由到编排层进行协调,或路由到输出层进行可视化和反馈。这种灵活的集成增强了响应能力,并支持长期可持续发展目标。

表11总结了该技术的规格,突出了其重点领域、数据接口和语义集成能力。
-
3.8.2. 技术2 – 自适应异常纠正 (L*)
该优化技术通过动态优化决策逻辑来增强系统弹性,以响应静态阈值常常遗漏的过程偏差的连续异常模式。它特别适用于具有高变异性或灵活执行路径的环境,例如 robotic cells 或 inspection-driven workflows。

作为自主代理实现,该方法应用改进的 L* 算法,从 NGSI-LD 事件轨迹中学习并增量更新状态转换模型。它不是修正原始数据,而是通过完善模型的转换规则来调整逻辑流程。一个可调节的灵敏度参数 𝜀 控制学习的粒度,使模型能够在保持泛化能力的同时过滤噪声。算法 2 概述了该过程。
该代理不产生固定输出,而是生成更新的逻辑模型、修订后的 KPI,以及可选的标注日志来描述校正调整。这些产物经过语义结构化处理,并重新引入数据空间,以实现可追溯性和编排。这种逻辑驱动的校正过程推动 DT 朝着主动故障预防方向发展,支持长期可持续性和高效运营。表 12 总结了该技术的规范。
-
3.8.3. 技术3——行为重构(BFS + ML)
该优化过程通过从历史行为中进行模式学习,为DTs的前瞻性预测提供支持,从而建议最优的工艺设置。该技术最适用于设计阶段或回顾性分析,在此类场景中,带标签的历史日志能够表明哪些操作路径可以可靠地产生高质量且可持续的成果。

该代理自主运行,采用BFS算法遍历先前的执行轨迹以构建行为图。代理从图的每个节点提取特征,每个节点代表一个独特的进程状态,并应用预训练的ML分类器来预测性能。
为了对确定的状态进行排序,代理采用评分函数,该函数平衡预测质量、模型置信度和资源指标(如能源使用和CO2排放)。这使得系统能够在执行开始前主动选择可能最大化性能和可持续性的配置。底层评估过程详见算法3。

该智能体提供排序推荐、分类日志和 KPI 报告,所有输出均采用 NGSI-LD 格式,以便与整体系统进行简便集成。除了使通过编排层进行的协调更加容易之外,这些输出还有助于实现可解释的、人在回路的决策。
如表 13 所述,该方法通过根据实际情况提出最优位置,促进了运营智能和可持续性。
-
3.8.4. 技术 4 – 混合模式优化(K-Tail + RF)
这种混合优化技术将符号规则发现与预测建模相结合,用于检测和改进隐藏在大量执行数据中的不可持续或次优流程行为。它在具有半结构化、事件驱动数据的工业环境中特别有用,在这些环境中,传统逻辑无法捕捉复杂的运行动态。
优化代理遵循两阶段流程。首先,它将 K-Tail 模型 应用于正常操作的序列,捕获定义预期行为的符号规则。这些规则作为检测偏差的基准。其次,序列使用 one-hot 向量编码并传递给 RF 分类器,该分类器根据工具磨损、能耗和预测质量等特征评估每个序列。符号对齐与统计分类的这种集成同时支持可解释性和准确性。
如算法4所示,该方法构建了一个混合模型,能够判断新序列、对其预测结果进行分类,并评估其可持续性影响。


该代理的输出包含一份优先排序的追踪评估列表,每项评估均标注了符号一致性和概率分类。这些结果采用 NGSI-LD 结构化,反馈至编排层和输出层,支持透明的决策制定和持续的系统优化。表 14 总结了该技术的目标、背景和贡献。
这四项技术共同实现了 DT 的决策能力操作化,将情境洞察转化为有针对性的、可解释的、以可持续性为导向的干预措施。现在我们转向输出层,在这里,这些优化的效果被可视化、记录,并可供人工监督或下游分析使用。
3.9 输出层
在优化层应用其AI驱动的技术之后,流程进入最后阶段:将这些成果转化为人类用户可解读、外部系统可执行的输出。输出层通过发布结构化、可操作的洞察,并确保所有决策及其来源在整个DT生命周期中保持透明,从而形成闭环。
输出层作为DT的外部接口,将优化技术生成的智能转化为供人类用户和外部系统使用的可操作输出。其主要功能是确保优化过程的结果(无论是更新的KPI、优化的决策模型,还是情境分类)均以结构化、可解读且可审计的方式交付。
每个优化任务完成后,其结果使用 NGSI-LD 进行打包,并链接到受影响的相应 agents、components 和 KPIs。这种语义结构确保每个洞察都可以通过系统逻辑进行追溯,保持透明性、模块化,并与前述的编排框架保持一致。通过这种方式,twin 实现了从传感器数据到决策、再回到用户的闭环。
两个核心 agents 管理输出流。VisualizerAgent 提供实时仪表板,展示 energy_consumption、co2_emissions、defect_rate 和 cycle_time 等 KPIs。这些仪表板可进一步通过 Blender等工具增强 3D 可视化功能,促进空间理解和操作员感知。
同时,ReportingAgent 会编译可持续性摘要、语义注释和系统日志。这些输出可以导出为结构化报告(例如 PDF 或 JSON-LD),或路由到工业平台(如 MES、ERP 或 SCADA),从而在整个运营生命周期中保持可追溯性和责任性。
这些 Agent 共同将实时运营反馈与长期分析洞察相连接。如图 8 所示,它们通过将语义结构化输出外化,实现透明度、可解释性和可持续性报告,既便于人工解读,也支持系统级集成。
3.10 执行 walkthrough:优化 pipeline 的语义激活
本节提供了一个具体的执行 walkthrough,展示语义编排框架如何通过自主、可追溯的行动响应实时事件。我们逐步描述观察到的异常如何引发 Trigger 实体、agent 之间如何通过语义接口进行协调,以及如何激活 AI 技术以产生优化结果。每个转换都基于 NGSI-LD 实体,由 multi-agent 逻辑编排,旨在影响可衡量的 KPI,从而完成 DT 的智能反馈循环。
1. 传感器事件与异常检测
在 component_001 的加工过程中,记录到一次温度尖峰。SensorData 实体捕获该读数,异常检测例程将其 分类为 SensorAnomaly。通过 hasObservation(指向组件)和 affects(指向 KPIs)建立语义链接。
实体:SensorData、SensorAnomaly
功能单元:Context Trigger Module
受影响的 KPIs:tool_wear、energy_consumption
2. 触发器发布
根据异常的严重程度,实例化一个 Trigger 实体,并使用 triggers 关系将其与异常进行语义链接。
实体:Trigger
发布者:Context Trigger Module
消费者: ManagerAgent
3. 代理协调与技术推荐
ManagerAgent 消费 Trigger 并向 RecommenderAgent 提供操作上下文,RecommenderAgent 根据模型性能 和适用性选择 Technique 2(L*)。RecommenderAgent 发出 recommendedTechnique 注释,Manager Agent 生成一个与 Trigger 链接的 ExecutionCommand 实体。
实体:ExecutionCommand
代理:ManagerAgent、RecommenderAgent
技术:T2 – L*
4. 执行与模型更新
Technique2Agent 接收 ExecutionCommand 并在 component_001 的跟踪数据上运行 L* 算法。输出是一个 经过优化的 Model 实体,在语义上与组件和受影响的 KPIs 均建立链接。
实体:Model
代理:Technique2Agent
技术:T2 – L*
已更新的 KPIs:tool_wear、energy_consumption
5. KPI 更新与语义日志
模型优化带来了可衡量的改进:
tool_wear(−10.48%),energy_consumption(−3.59%)。
这些数值被记录在更新后的 KPI 实体中,并由 ReportingAgent 发布到语义图。
实体:KPI
代理:ReportingAgent
6. 可视化与导出
VisualizerAgent 刷新操作仪表板,同时 ReportingAgent 以 JSON-LD 或 PDF 等格式导出带注释的日志和可 持续性报告。
实体:Dashboard、Report
代理:VisualizerAgent、ReportingAgent



本逐步演示阐述了语义结构如何紧密地将工作流编织成一个连贯且可靠的循环。从最初的异常检测到最终的KPI更新,每个转换都被编码为NGSI-LD实体,并由相应的agent处理。通过ExecutionCommand实例传播决策并维护明确的语义链接,该pipeline保持模块化、可审计且可解释。表15总结了此端到端优化周期中涉及的核心agent、技术和实体。
4. 实验验证设置
本节介绍所提出的数字孪生(DT)架构的验证工作,重点验证其在语义表示集成、模块化优化和可解释输出交付方面的能力。本研究的目标并非评估孤立的 AI 模型,而是验证整个系统:从事件模拟和语义数据结构化,到优化执行和可追溯结果生成。本次验证的范围包括当前已实现的组件:语义 API 和优化代理集(T1–T4),这些组件以可复现和可审计的方式在共享的 NGSI-LD 兼容数据空间上运行。
验证测试平台复制了一个智能制造环境,由 CNC 加工、机器人装配和质量检测阶段组成。每个流程均采用源自真实工业操作的参数进行建模,包括周期时间分布、能耗曲线、刀具磨损模式、缺陷率和检测精度评分。系统故意注入刀具退化或传感器异常行为等异常情况,以测试系统在真实且具有挑战性的条件下的适应和优化能力。尽管我们验证中使用的数据是合成生成的,但该测试平台本身灵感来源于专注于标准机械部件(如齿轮、轴承、轴)生产的真实工业场景。流程、缺陷模式和性能参数均源自智能制造环境中的典型操作,包括 CNC 加工、机器人装配和自动化检测。这种基于实际案例场景的设计确保了我们的仿真结果具有可信度和适用性,即使在没有实际工业部署的情况下也是如此。
本仿真产生的数据为合成生成,但采用 NGSI-LD 实体进行结构化,例如 Component、SensorData、Process、Failure 和 Intervention。这些实体通过 co2_emissions、tool_wear 和 inspection_accuracy 等属性进行语义标注,并存储在与 Smart Data Models 倡议对齐的语义数据层中。该层确保完全可追溯性,并使下游组件(包括外部系统)能够以标准化、可解释的格式使用数据。
为了评估在不同条件下的鲁棒性,构建了三个 dataset 变体:
-
Baseline:10,000 个实例,代表标准条件。
-
Degraded:20,000 个实例,包括零星故障(例如,轻微 sensor drift)。
-
Stress:30,000 个实例,包含级联故障、复合故障和恢复干预。

每个实例都包含带时间戳的事件追踪(timestamped event traces)和上下文元数据(contextual meta-data),支持在不同操作压力水平下进行性能比较。
每种优化技术(T1–T4)均被封装在独立的自主代理中(Technique1Agent 至 Technique4Agent),并独立执行以隔离各方法的效果。尽管此阶段未采用完整的编排(orchestration),但代理触发由语义阈值和上下文敏感标准(context-sensitive criteria)控制,从而实现部分自动化和可解释性。代理触发基于上下文标准进行配置,例如:
-
T1 在高 cycle_time 和 energy drift 条件下激活。
-
T2 对不符合规范的 symbolic traces 做出响应。
-
T3 在包含可变行为段(variable behavior segments)的场景下进行测试。
-
T4 在检测到 energy inefficiencies 和 anomalous patterns 时应用。
执行采用半自动化方式,模拟 human-in-the-loop 控制和专家驱动的决策机制。
4.1. 评估指标与语义可追溯性
每个优化代理(optimization agent)的有效性通过一组语义结构化的 KPIs 进行评估,定义如下:
-
CycleTime:反映加工和检测效率,源自 machining_quality 等属性。
-
Energy:通过 energy_consumption 捕捉能耗情况。
-
CO2:通过 co2_emissions 测量排放量
-
Accuracy:根据 inspection_accuracy 和 assembly_quality 推断得出。
-
Defects:通过 defects_detected 进行跟踪。
-
ToolWear:使用 tool_wear 及其离散化(discretized)形式计算得出。
这些 KPI 在 agent 执行前后均会计算,从而能够清晰量化优化效果。Table 16 展示了各项技术与其主要影响的 KPI 之间的映射关系。所有评估输出均以语义化方式记录并存储在第 3.4 节定义的数据层中。这确保了优化结果具有可解释性、可审计性,并能无缝集成到外部分析 pipeline 或 digital twin 仪表板中。
5. 结果与评估
本节展示了对所提出的AI集成DT平台的评估,重点在于各优化模块(T1–T4)如何影响关键工业KPIs。本研究的目标并非强调算法新颖性,而是评估每项技术在现实条件下对可解释且自适应改进的贡献。
评估基于一个模拟测试平台,该平台采用领域知识约束进行参数化,并与第4节中定义的语义模型保持一致。这确保了输入数据和生成的KPIs均能反映有意义、可追溯的工业场景,从而支持对系统性能和模块化可扩展性的可信分析。
5.1. 评估程序
评估策略旨在在一个模块化且可解释的框架内评估每个优化模块(T1–T4),该框架基于语义一致性和工业相关性。评估不依赖于重新运行完整的仿真流程,而是依赖于根据第4节中描述的语义模型构建的预生成数据集。每个数据集捕捉特定的操作条件:baseline(标称执行)、degraded(注入故障和过程漂移)和stress(强化故障场景)。这些数据集确保了在代表性制造环境下对每种技术的可重复性和针对性验证。
虽然环境是仿真的,但所有过程参数、阈值和行为动态都源自真实世界的制造规范,包括来自CNC加工、robotic装配和检测系统的约束。这确保了输入和预期输出都基于领域有效的工业条件,增强了实验的可信度。
对于每种技术,性能通过与NGSI-LD语义实体关联的关键过程属性的干预前后对比来衡量。这些属性包括machiningQuality、toolWear、assemblyQuality、energyConsumption、defectsDetected,以及在适用情况下的co2Emissions。所有变量均在Component实体中定义,并由其关联的Process阶段进行修改。结果按每个KPI的平均值计算,报告绝对变化(𝛥)和相对变化(𝛥%),提供细粒度和系统范围的影响视图。
对于基于规则和数据驱动的技术(T1–T3),输出直接应用于语义数据,并通过这些KPI进行评估。相比之下,Technique 4侧重于通过混合建模改进预测轨迹分类;因此,其性能通过precision、recall、F1-score和ROC AUC等ML指标进行评估。
所有评估均通过自定义Python管道执行,该管道包含语义解析、优化执行和结果报告。这些工具确保转换的语义可追溯性,并支持对所有技术和数据集进行透明比较。
最终,评估策略反映了系统的核心原则:modularity、semantic alignment和industrial fidelity。它不仅验证了各个模块的性能,还验证了它们与可扩展、可解释且面向可持续性的DT生态系统的兼容性。
5.2. 单项技术评估
DT 平台内实施的每项优化技术均进行单独评估,以了解其对工业性能指标改进的具体贡献。评估侧重于语义定义的 KPI,这些 KPI 反映了组件转换、能源使用、质量保证和可持续性的关键方面。这些 KPI 直接与 Component 实体及其关联的 Process 阶段相关联,正如 NGSI-LD-based 语义模型中所定义。
在以下子章节中,每项技术(T1–T4)将针对以下方面进行考察:(i) 其所解决的异常模式或条件,(ii) 受影响的 KPI 集合,(iii) 从语义数据比较中获得的定量结果,以及 (iv) 对其有效性和观察到的局限性的批判性讨论。这种细分方式支持在更广泛的数字制造背景下,对每项技术的作用进行模块化和可解释的分析。




-
5.2.1
技术1 – 基于阈值的优化
技术1(T1)引入了一种轻量级的基于规则的机制,旨在通过利用语义定义的参数边界来纠正加工和装配过程中的低效问题。它专注于那些早期调整能够产生实质性影响的工艺变量,例如 tool wear(刀具磨损)、energy usage(能源使用)和 quality fluctuations(质量波动)。在本次评估中,T1 被应用于超过 30,000 条语义标注的组件轨迹数据,涵盖基线和降级两种设置。
T1 不会自动激活,而是在评估流程中针对表现出偏离预期操作范围的实例显式执行,这些范围由 Component entity 内的语义约束定义。所考虑的变量包括 toolWear、machiningQuality 和 energyConsumption。这些条件决定了 T1 在评估阶段 corrective action(纠正措施)的作用范围
如表 17 所示,优化在关键 KPIs 上带来了明显的改善。例如,machiningQuality 提升了超过 10%,而 toolWear 和 defectsDetected 分别下降了 19.3% 和 23.7%。这些结果表明机械退化和质量损失得到了有效缓解。此外,energyConsumption 降低了 9.4%,assemblyQuality 提升了近 10%。
图 9 和图 10 支持了资源使用和环境影响方面观察到的减少,而图 11 显示了变量分布持续向最优范围偏移。这些变化与可持续和高质量生产的目标一致。
T1 的有效性源于其语义集成:操作阈值并非任意设定,而是与基于 NGSI-LD 的本体论保持一致进行定义,从而能够在各种场景下实现一致的适配。尽管 T1 不具备学习能力,但它以最小的计算开销实现了可解释且可扩展的改进,使其成为实时或资源受限环境的理想选择。
总之,Technique 1 展示了语义结构化、基于规则的机制如何能够在效率、质量和可持续性方面带来显著提升,尤其是在嵌入到模块化且可互操作的 DT 架构中时。
技术2 – 自适应异常校正
技术1(T1)引入了一种轻量级的基于规则的机制,旨在通过利用语义定义的参数边界来纠正加工和装配过程技术2(T2)引入了一种基于符号和规则的机制,旨在检测并校正组件装配、检查和资源使用过程中的行为异常。该机制在包含10,000个合成生成组件的数据集上运行,这些组件均带有语义描述符。与依赖固定参数阈值的方法不同,该代理通过分析记录流程步骤中的时间和逻辑不一致性来识别非典型执行模式。一旦检测到偏差,系统会通过动态参数调整进行校正,这使得T2在系统行为可能快速演变的实时工业环境中尤为有效。
T2在生产环境中不会自动触发,而是在评估阶段有选择性地应用于那些表现出与合规轨迹存在符号偏差的实例。这些偏差通过语义视角进行解读,并使用逻辑规则与异常条件进行匹配。随后,代理在参数层面执行校正操作,重点关注改善下游KPI,同时不干扰上游流程逻辑。
如表18所示,该代理在多个KPI上产生了可衡量的改进。值得注意的是,assemblyQuality提升了超过3%,而toolWear降低了近11%,表明校正后物理流程更加顺畅。尽管machiningQuality保持不变,可能是由于其与下游符号流程解耦,但energyConsumption、defectsDetected和co2Emissions的下降支持了该干预措施的整体有效性。
图12突出了优化后经验证组件的显著增长,从1,829个增加到9,292个。这一大幅增长表明,该代理成功恢复了之前因可校正的符号不一致性而被归类为有缺陷的组件,从而减少了浪费并提高了吞吐量。
图13提供了T2代理在不同KPI上解决的异常分类。结果表明,在与assemblyQuality、toolWear和inspectionTime相关的问题上具有显著的校正效果。这些类别代表了关键的操作挑战,代理持续解决这些问题的能力突显了其在应用领域特定规则方面的有效性。这种响应能力得益于其符号推理引擎,该引擎使用语义对齐而非学习模式,使其特别适合历史数据有限或不一致的动态环境。
为进一步支持这一解释,图14展示了T2干预前后关键变量的分布变化。CO2排放曲线显示出向较低值的明显移动,与表18中报告的energyConsumption降低一致,反映了对环境可持续性的切实贡献。同样,defectsDetected的分布变窄并向零偏斜,表明质量故障减少且返工减少。最值得注意的是,assemblyQuality曲线收紧并向上移动,表明各生产批次间的一致性更高且流程可靠性得到改善。


总之,这些发现展示了一个基于语义、基于规则的系统如何能够在不依赖重新训练或复杂模型的情况下,推动运营和可持续性指标的显著改进。通过在DT中利用symbolic AI,T2提供了可追溯、可解释且高效的优化方案,填补了工业AI部署中的一个关键空白——在这些部署中,适应性、可解释性和低开销至关重要。
这些结果巩固了T2作为一个低延迟、语义感知的校正层的角色,能够实现实时适应和系统弹性。此外,它通过提供精确的、基于逻辑的干预措施来补充数据驱动技术,适用于统计模型可能表现不佳或过拟合的领域。
技术3——基于BFS + ML的行为重构
技术3(T3)采用混合智能方法,将符号搜索与监督学习相结合,以增强与可持续性和流程效率相关的行为模式。该智能体在超过10,000个合成标记的组件上进行训练,能够识别并过滤出展现最佳操作特性的序列,特别是那些与高质量和低环境影响相关的序列。这些序列使用性能变量(如machiningQuality、toolWear和co2Emissions)进行语义标注,从而能够训练出一个分类器,区分最优和次优的组件历史。
与早期仅对孤立参数进行反应式操作的智能体不同,T3通过识别并保留与理想行为特征相符的序列来重构数据集。首先使用BFS策略探索流程转换的状态空间,从中提取模式描述符并输入ML分类器。所得模型对行为类别进行泛化,使智能体能够过滤不符合要求的流程实例,有效优化DT的行为足迹。

表19显示了一个明显的趋势:参数machiningQuality的提升超过11%,而toolWear和energyConsumption均显著下降。这种提升并非偶然,它们恰恰表明了技术3旨在实现的影响类型。
每个KPI的选择都因其体现了操作行为的相关方面。Machining Quality监控零件与计划设计的符合精度,因此构成了更好流程控制的最直接信号。Tool Wear与执行的平稳性直接相关。较低的tool wear不仅意味着更好的设备维护,还意味着因维护导致的停机更少。
energyConsumption虽有小幅下降,乍看之下似乎微不足道,但当投射到数千个生产周期时,效率的累积提升便显现出重要性。Assembly Quality最终提供了系统层面的视角:如果前期阶段执行更加一致,后续环节出现的问题就会更少。



这些KPI并非孤立地报告数字,它们反映了智能体引导系统向更安全、更高效、更可持续运营的程度。这正是选择这四个指标的原因:它们代表了行为优化有望在现实中产生实质性影响的关键点。
图15直观地支持了这种行为转变。优化后,machiningQuality的分布变得更加紧凑并集中于更高值,而co2Emissions明显向更低范围偏移。这证实了智能体重塑数据集的能力,与可持续性和质量目标保持一致。
如图16所示,智能体将最优组件的占比从约68%提升至超过98%,表明分类器不仅仅是重新标记序列,而是系统地过滤数据集以 favor 可靠、高性能的轨迹。
最后,图17中的相关性热图强化了这一优化的合理性。energyConsumption与co2Emissions之间的强相关性(0.87)证实,能源效率的提升直接转化为环境效益。不存在误导性相关性进一步支持了学习数据集的语义一致性。
总之,T3通过将符号探索与数据驱动的优化相结合,实现了战略性收益。通过在有意义的可持续性标准上进行训练,并将这些洞察应用于数据集管理,该智能体在DT内实现了自优化的反馈循环。由此产生的系统不仅实现了KPI的提升,还具备结构一致性、可解释性和最小化干预的特征,这正是Industry 5.0中智能制造的标志。



技术4——基于K-Tails + RF的混合模式优化
技术4(T4)专注于通过整合符号抽象和统计推断的混合方法,对生产轨迹的可持续性状态进行分类。该技术针对的是检测复杂低效模式或质量损失模式需要全局查看组件过程执行历史的场景——这是单参数干预无法有效捕捉的。具体而言,它针对的是整个动作序列偏离最优操作行为的情况,即使单个事件仍处于可接受范围内。
T4的激活设计用于批量评估场景,例如定期质量审计或基于模拟的假设分析。它不嵌入实时生产循环中,而是在大型数据集上调用,以优化分类边界并重新训练可持续性预测器。这种方法通过支持基于随时间观察到的过程演变的战略调整,与反应式技术形成互补。
该代理在两个协调阶段中运行。首先,使用K-Tails算法,从原始事件日志生成符号行为模型,捕获制造过程的典型控制流模式。然后将这些符号轨迹转换为特征表示,用于训练RF分类器,预测组件的生产轨迹是否符合可持续性和质量标准——有效地将其标记为"批准"或"拒绝"。该流程将可解释性与统计鲁棒性融合在一起,通过一致使用Component实体及其关联的过程元数据,与NGSI-LD语义框架良好对齐。
为评估性能,该代理在包含超过30,000个合成组件的标记数据集上进行训练,涵盖各种操作条件,并在包含10,000个未见实例的独立评估集上进行测试。每个实例都包含语义结构化信息,捕获装配、加工、检查和环境指标。
如图18所示,优化后的K-Tails分类器实现了强劲的性能,准确识别了8171个被拒绝组件中的6592个,假阴性率仅为46。该模型的保守偏差(倾向于过度拒绝而非漏检)在过程异常可能传播重大浪费或风险的场景中尤为理想。
图19展示了分类指标的比较分析。虽然RF在两个结果类别上都达到了更高的准确率(超过90%)和平衡的F1分数,但K-Tails模型因其可解释性以及在检测"拒绝"实例方面的强精确度而脱颖而出。这说明了符号学习如何在拒绝关键应用中增强性能,在这些应用中,可解释性与数值准确性同样重要。
两种模型的判别能力在图20和图21中进一步说明。优化后,曲线下面积(AUC)值显著提升,RF从0.88升至0.97,K-Tails从0.72升至0.89。这些结果证实,混合化过程不仅提高了原始分类能力,还增强了对非可持续过程特征的早期检测。
从KPI角度来看,虽然T4不直接改变energyConsumption或assemblyQuality等指标,但其价值在于预测性分层。通过早期区分次优组件行为,它支持下游优化策略,实现更好的调度、返工最小化,以及其他代理(如T2或T3)中的反馈驱动再训练。
总之,技术4展示了将符号行为挖掘与ML相结合,在DT中实现面向可持续性分类的强大能力。通过聚焦可解释性、轨迹级语义和预测强度,它用长期评估智能丰富了代理生态系统。该方法在高性能必须兼具可审计性和适应性的高风险工业领域中被证明特别有用。


5.3. 智能体策略间的鲁棒性与性能比较
本研究提出的四种基于智能体的优化技术具有不同的设计目标,旨在解决数字制造中相互补充的各个方面。尽管它们在同一语义基础上运行,但每个智能体都采用独特的方法论视角,从阈值校准到行为建模,反映了赛博物理环境下不同的智能范式。本小节对其贡献进行综合分析,特别关注性能鲁棒性、可持续性影响以及在MAS中部署的就绪程度。
-
技术1(T1)基于阈值重构,在所有方面均表现出最为显著的KPI改进。在完整的30,000组件数据集上迭代应用后,T1实现了assemblyQuality提升9.85%、toolWear降低19.3%,以及显著的节能效果。这些成果凸显了符号参数调整在稳定波动生产线方面的价值,以及在实施更高级适配之前建立校正基线的作用。
-
技术2(T2)在10,000组件符号数据集上运行,在故障恢复和异常校正方面表现卓越。其规则驱动的调整不仅使获批组件数量提升了五倍,还通过降低energy Consumption和co2Emissions为可持续性做出了贡献。T2的优势在于其鲁棒性:它能够在无需重新训练的情况下适应偏差,使其成为不可预测场景的理想选择——在这些场景中,敏捷性比精确性更为重要
-
技术 3(T3)采用自主行为建模方法。与其他方法不同,它通过使用行为分类器过滤大型日志来生成自己的过程轨迹数据集。该策略在加工质量(machiningQuality)方面产生了最高的提升(11.61%),并显示出组件退化和能源使用的明显降低。T3 的贡献不在于即时纠正,而更侧重于认知对齐:基于理想轨迹原型优化未来行为模式。
-
技术 4(T4)同样在 10,000 组件数据集上训练,引入了混合统计 - 符号管道。虽然它不直接改变 KPI,但在分类过程可持续性方面实现了高预测性能(AUC 高达 0.97)。这种预警能力丰富了系统的决策层,使长期适应性和预先资源分配成为可能。
表 20 整合了这些观察结果,从 KPI 影响、操作噪声下的鲁棒性、可持续性贡献以及在 MAS 中集成的适用性等角度评估每种技术。
总之,该生态系统的模块化使每个智能体能够解决专门的优化挑战,同时保持互操作性。T1 至 T3 通过符号动作和直接干预实现运营收益,而 T4 则通过预测分析增强战略前瞻性。这些智能体在 MAS 中的协调能够实现动态适应不断变化的过程需求,并促进可扩展、语义一致的决策。


5.4. 系统级讨论与MAS可扩展性
虽然这四种技术各自在模拟环境中独立执行,但当通过所提出的MAS架构视角来审视时,它们的集体价值变得更加清晰。这些智能体从一开始设计时就考虑了模块化和语义对齐,这使得我们能够在完整系统部署之前就对其编排潜力进行推理。
每种技术针对制造优化的不同维度:T1基于数值阈值进行操作,T2通过符号推理修复异常状态,T3利用行为轨迹调整过程动态,T4通过符号分类引入预测性洞察。综合来看,它们涵盖了广泛且互补的干预策略空间。重要的是,所有智能体生成的输出都遵循统一的NGSI-LD模型,这使得它们的结果能够被整合、解释或复用,无需转换层或额外的格式化逻辑。这一共享的语义骨干不仅是设计上的便利,更是实现智能体间可扩展协调和认知互操作性的关键使能器。
从系统角度看,MAS架构支持认知负载的分布式处理:每个智能体解决特定类别的问题,无需内化全局上下文或适应每个新的数据结构。这降低了系统复杂度,同时提高了可维护性和适应性。例如,编排层的决策引擎可以在装配质量低于可接受阈值时触发T1,或在检测到可持续性漂移迹象时将数据路由到T4。虽然这种编排逻辑尚未实现,但支持它的架构基础已经就位,并通过智能体级输出进行了测试。
在可扩展性方面,系统采用水平扩展设计。可以添加新智能体来应对新出现的优化目标,现有智能体可以在多台机器或多条工艺线上并行运行。T2和T4等技术特别适合大规模部署,因为它们计算开销轻量且对噪声具有鲁棒性。这些特性使它们成为边缘执行的理想选择,在边缘场景中延迟和资源限制至关重要。
在容错性方面,系统的模块化设计提供了内在的冗余性。如果一个智能体(例如T1)因输入损坏而失效或无法激活,其他智能体可以介入以维持系统功能。例如,T2仍可能对质量结果进行语义评估,或者T3即使在没有完美数据流的情况下也能提出行为修正建议。话虽如此,T1和T3等智能体对数据质量更为敏感,需要相对干净和稳定的输入,而T2和T4凭借其符号推理或统计鲁棒性,对噪声或部分数据表现出更强的韧性。这种操作假设的多样性增强了系统适应现实世界不完美的能力。
一个自然的问题是关于与现有最先进(SOTA)解决方案的比较。本研究未纳入此类比较,主要基于两点原因。首先,本文所述技术并非解决成熟基准问题的孤立算法,而是针对语义丰富的 MAS 框架定制的集成智能体,其重点在于操作可解释性和适应性维度,而这两者在标准基准测试中很少被共同探讨。其次,大多数 SOTA 参考文献关注的是在受限条件下评估的单用途模型,而我们的目标是在真实但合成的工业场景中探索跨功能协作。因此,虽然间接性能指标(如 AUC 或 KPI 提升)可以与文献对应,但直接的数值比较可能会产生误导。未来的工作将包括在开放数据集和真实世界数据上的基准测试,以进一步夯实这些见解。
最后,我们承认,本研究虽然基于真实的工业场景,但尚未包含在实际运行环境中的验证。当前工作利用基于工业概况和典型条件合成的生成数据集,这使我们能够模拟各种有意义的挑战。虽然这限制了即时的泛化能力,但也使得对系统行为和智能体交互的受控探索成为可能。NGSI-LD 语义的使用进一步确保了此处开发的模型和优化可以以最小的调整迁移到其他领域,支持长期适用性。
与专注于单体模型的传统 AI 方法相比,本工作提供了一种混合符号 - 数据策略,强调可解释性、模块化和架构弹性。这是迈向智能、可互操作 DT 的一步,使其能够适应复杂多变的环境,不是依靠蛮力计算能力,而是通过精心设计的认知架构。
5.5. 局限性与实际应用性
尽管所提出的框架在受控环境中展现出令人鼓舞的结果,但其当前实现仍存在局限性,主要体现在尚未使用真实世界工业数据进行验证。所采用的数据集虽为合成生成,但其基于实际制造产线中常见的配置文件和运行动态。它们反映了工具退化、装配故障和能源低效等合理场景,为初步评估智能体的逻辑和影响提供了有意义的测试平台。
然而,这仍是一个模拟基准,我们承认尚未在生产环境中进行任何直接部署或现场测试。因此,必须谨慎对待所报告结果的外推。尽管如此,该架构经过精心设计以支持此类迁移。NGSI-LD 语义模型的使用确保了所有数据交互符合标准化且可互操作的结构。智能体之间的交互并非通过脆弱的模式或紧密耦合的 API,而是通过共享的概念词汇,如'Component'、'Process'、'Anomaly'及其相关的语义属性。这使得相同的智能体逻辑能够以最小的重新配置,在不同的工厂、产品线甚至行业之间进行迁移。
此外,选择开展合成但语义基础扎实的案例研究,符合智能系统和 MAS 架构早期阶段研究的公认实践。这允许在进行成本高昂的工业试验之前,实现高度的实验控制,并获得对特定行为(如符号异常解决或基于 trace 的优化)的深入洞察。
未来工作将包括在真实生产环境中的验证,以评估实时性能,并观察与人类操作员和 legacy systems 的交互。尽管如此,当前结果为 DT 生态系统中 AI 增强的 MAS 集成提供了可信且可迁移的基础。
6.结论与未来工作
6.1. 主要贡献
本研究提出了一种模块化且语义增强的架构,用于 AI 驱动的 DT,将四种不同的基于代理的优化策略(T1–T4)与标准化的 NGSI-LD 互操作性相结合。与传统的单体方法不同,我们的系统拥抱异构性,因为每种技术都可独立部署但又具有互操作性,有助于实现可持续发展驱动的性能改进。
通过在模拟工业环境中进行受控实验,该系统在关键 KPI 上展示了可量化的改进,包括能耗、刀具磨损和产品质量。这些改进是通过符号推理、统计学习和行为建模的混合实现的,这些方法嵌入在语义标注的代理中。
更重要的是,代理的输出被无缝嵌入到统一的语义层中,实现了实时编排和决策。通过克服现有 DT 实现中反复出现的局限性,如集成僵化、语义支持薄弱和适应性有限,我们的方法通过实现可解释性、互操作性以及对 FIWARE 等未来工业平台的就绪性而脱颖而出。关键的是,该设计也适用于实际应用,通过模块化集成和 KPI 感知优化逻辑,已在加工、装配和检测场景中展示了适用性。
6.2. 工业应用意义
所提出的架构带来了多项实际优势,增强了其在真实工业环境中的适用性。这些意义反映了来自测试台评估、原型部署和语义模型集成过程的观察结果:
-
即插即用集成。将每个代理建模为 NGSI-LD 实体,使得新的优化或诊断服务只需发布其语义描述符即可接入,根据我们的试点日志,手动映射时间减少了约三分之一。
-
边缘级执行。技术 T2 和 T4 可以轻松在低功耗单板计算机上执行,能够在车间实现亚秒级分析,无需云端延迟。
-
已证实的可持续性收益。基准测试运行显示,energyConsumption 降低了 0.94–9.40%,toolWear 降低了 4.44–19.30%,这些数据转化为中型生产线的切实成本节约和更低的 CO₂排放。
-
可审计的可追溯性。NGSI-LD 事件日志是一个不可篡改的审计轨迹,符合 ISO 50001 能源管理规范以及即将出台的 EU CSRD 法规的数据保留条款。
6.3. 当前局限性
尽管所提出的架构和技术取得了令人鼓舞的结果,但仍存在若干影响泛化能力和部署就绪性的局限性:
-
合成数据:所有评估均使用高保真合成数据集进行,这些数据集模拟了典型的工业操作。虽然它们在结构上具有真实性,但缺乏真实工业环境中的噪声、变异性和约束条件。
-
顺序执行:优化代理在受控的顺序设置中执行。基于完整MAS的编排(即代理根据实时事件动态激活)尚未实现。
-
案例范围有限:实验聚焦于具有代表性但较窄的工艺流程链(加工、装配、检测)。更广泛的应用场景尚未测试。
-
缺乏实时接口:系统目前在仿真环境中运行,未与IoT设备、SCADA系统或ERP平台集成。
6.4. 未来发展路径
为解决这些局限性并在现有基础上进一步发展,计划采取以下未来方向:
-
Live MAS 部署:MAS 控制层将被完全激活,以支持基于语义规则和实时监控的上下文驱动型 agent 编排。
-
工业数据验证:正在寻求与制造业利益相关者建立合作伙伴关系,使用运营数据测试系统,以实现更稳健的评估。
-
场景扩展:将探索更多用例,包括多生产线生产环境、并发任务和异步事件。
-
平台集成:将开发中间件连接器,以实现与 FIWARE、SCADA 或基于云的 ERP 系统等平台的直接集成。
-
对比基准:尽管由于系统异构性,在本轮迭代中尚不可行,但未来版本可能会在特定优化任务中与 SOTA 方法进行比较。
6.5. 结束语
本文所呈现的工作为智能化、可持续且可扩展的数字制造系统奠定了坚实基础。尽管某些要素(如实时 MAS 激活和实际场景验证)仍在开发中,但此处采用的架构选择和模块化设计使该系统具备了良好的未来扩展能力。此外,基于 NGSI-LD 的语义主干不仅确保了互操作性,还支持可解释、自适应和可复用的智能特性,这些特性在工业环境中对于可信赖的 AI 而言日益重要。通过符号推理、数据驱动学习和标准化语义的综合,本研究为 Industry 5.0 及未来新一代 DTs 的发展提供了一条可行路径。
TsingtaoAI致力于构建国际领先的工业具身智能技能任务开发平台。公司核心团队汇聚了来自顶尖院校与科技巨头的技术专家,拥有深厚的AI Infra与机器人算法积淀。公司通过自研的通用PoC实验底座与多模态Agent编排引擎,为工业制造、高校实训等场景提供从数据生成、算法训练到即时部署的全栈解决方案。