2024-07-312024-08-092024-07-31https://hdl.handle.net/11420/48601Heute wird fast jedes technische System digital gesteuert. Solche digital gesteuerten Systeme verfügen über zahlreiche funktional unterschiedlich interagierende Subsysteme, Systemebenen und Verbindungen zu anderen Systemen. Viele Probleme, die während ihres Designs und Betriebs auftreten, sind auf eingeschränktes Verständnis und daraus resultierende Unstimmigkeiten an ihren Schnittstellen zurückzuführen. Um solche Irrtümer zu vermeiden, sind gegenseitige Erklärungen für verständliches Verhalten gegenüber anderen Systemen, Designern, Entwicklern und Betreibern erforderlich. Von Entwerfenden kann nicht erwartet werden, dass sie alle Komponenten eines Cyber-Physical Systems (CPS) und der Umgebung vollständig verstehen. Dennoch benötigen beispielsweise Softwareentwicklerinnen nachvollziehbare Erklärungen zu Erwartungen und Garantien eines physischen Prozesses, der direkt oder indirekt mit dem Programm interagiert. In einer idealen modellbasierten Designwelt wäre dies alles, in geeigneten Designspezifikationen verfügbar. Realistisch gesehen sind diese jedoch punktuell und auf Präzision ausgerichtet und erfordern als Ergänzung verständliche Erklärungen. Das Graduiertenkolleg CAUSE geht diese Probleme an, indem es digital gesteuerte Systeme für Entwicklung, Nutzung und andere Systeme selbsterklärend gestaltet. Während der Begriff „Erklärung“ in Bezug auf Verstehen, Denken und Argumentieren in vielen Disziplinen intensiv diskutiert wurden, stellen wir eine Definition für unsere Sicht bereit, die zu unseren Formalismen passt: Eine Erklärung ist eine Information, die von einem (selbsterklärenden) System einem Adresssystem rechtzeitig bereitgestellt wird; die Erklärung ermöglicht es dem Adresssystem, Konsequenzen aus Entscheidungen oder Wissensinkonsistenzen aufzudecken, die andernfalls unzugänglich bleiben; anhand der Erklärung kann das Adresssystem diese Schlussfolgerungen ziehen, ohne alle Einzelheiten der Interaktion zu kennen. CAUSE konzentriert sich auf die technischen, logischen und algorithmischen Grundlagen von Selbsterklärungsfähigkeiten und deren Integration in die System-Engineering-Methodik auf allen Abstraktionsebenen, die für den Entwurf digitaler Systeme relevant sind. Mit der Verfügbarkeit eines umfassenden Demonstrators zur Erporbung von Theorien und Methoden ist CAUSE einzigartig. CAUSE umfasst drei Institutionen, die ein Konsortium bilden, das sich mit Hardware, Software und Systemen sowie theoretischen Grundlagen, Entwicklungsmethoden und praktischen Anwendungen auskennt. In CAUSE durchdringen Doktorandinnen und Doktoranden die Forschung zu neuartigen Systemdesignkonzepten, die eine Selbsterklärung ermöglichen. Sie werden wissenschaftlich Unabhängig und erwerben zeitgemäße Fähigkeiten zur verteilten Teamarbeit, zur Arbeit in unterschiedlichen Kooperationskontexten, zur Anpassung an unterschiedliche Wissenshintergründe und zur intensiven technischen Kommunikation.Today, almost any technical system is digitally controlled which adds to its smartness. Such digitally controlled systems feature many and functionally diverse interacting subsystems, system levels, and connections to other systems. Many problems arising during their design and operation can be traced back to a lack of understanding and consequential mismatches at their interfaces. Avoiding such fallacies, demands mutual explanations of behaviour comprehensible to other systems, designers, developers, and operators. Developers cannot be expected to understand all details of all components of a Cyber Physical System (CPS) and the environment. Yet software engineers, e.g., would need comprehensible explanations of expectations and guarantees of a physical process in the environment directly or indirectly interfacing with the program. In an ideal model-based design world, all the engineers would have to know would have been encoded in reasonable design specifications or contracts. Realistically, these are however partial and focused on precision, demanding understandable explanations for specific situations as a complement. The research training group CAUSE addresses these issues by striving to make digitally controlled systems self-explaining to developers, users, and other systems. While the term explanation and its relation to understanding and reasoning have been discussed intensively in many disciplines, we provide a definition that fits our view and needs to be later related to our formalisms: An explanation is information timely provided by one (self-explaining) system (the explainer) to another system (the addressee); the explanation empowers the addressee to unveil consequences from decisions or inconsistencies in knowledge remaining inaccessible otherwise; by means of the explanation, the addressee can draw these conclusions without knowing all details of the interaction. CAUSE focuses on the technical, logical, and algorithmic basis of self-explanation capabilities and their integration into system engineering methodology at all abstraction levels pertinent to digital system design. The research training group is unique in fostering and facilitating development of complementing theories and methods using a demonstrator covering all levels from digital hardware over software and systems to Systems of CPSs. The research training group spans three institutions implementing a consortium equally versed in hardware, software, and systems, as well as in theoretical foundations, development methods, and practical applications. Within CAUSE, doctoral researchers are immersed into state-of-the-art research concerning novel system design concepts enabling and building upon self-explanation. They develop scientific independence and acquire the timely skills of distributed team-work, working in varying collaborative contexts, adapting to diverse knowledge backgrounds, and intense technical communication.GRK 2972: Konzepte und Algorithmen für - und Nutzung von - selbsterklärenden digital kontrollierten SystemenGRK 2972: Concepts and Algorithms for – and Usage of – Self-Explaining Digitally Controlled SystemsGrant