Resilienz

Woran arbeitet das Fraunhofer IKS?

Das Fraunhofer IKS arbeitet an verschiedenen Ansätzen, um Künstliche Intelligenz abzusichern, wie sie etwa in autonomen Fahrzeugen eingesetzt wird.

Jetzt Kontakt aufnehmen

Lösungsansatz – Resilienz braucht ganzheitliches Denken

Safe Intelligence: Key Visual des Fraunhofer IKS
© Fraunhofer IKS

Um resiliente Systeme zu entwickeln, muss holistisch gedacht werden. Es geht darum, Künstliche Intelligenz, technische Methoden und geeignete Architekturen ganzheitlich zu betrachten. Das Fraunhofer IKS nennt dies Safe Intelligence.

Dabei kommt auch Softwaretechnik eine große Bedeutung zu. Diese bietet bereits Instrumente für selbst anpassende Systeme. Seit mehr als zwei Jahrzehnten werden Methoden und Architekturen für diese entwickelt, die eine Grundlage für die Entwicklung resilienter Systeme bilden. Mit ihnen lässt sich auch die Komplexität belastbarer Systeme beherrschen. Unter anderem werden dabei Ansätze wie DevOps eine zunehmend wichtigere Rolle spielen.

Vierteilige Blogserie von Prof. Dr. Mario Trapp zum Thema Resilienz

Angesichts der aktuellen Krisen erfährt der Begriff Resilienz derzeit hohe Aufmerksamkeit. Doch auch im Zusammenhang mit technischen Systemen und Software-Zuverlässigkeit spielt der Begriff eine schon seit einigen Jahren eine vieldiskutierte Rolle. Durch den verstärkten Einsatz von Künstlicher Intelligenz ist diese Rolle noch einmal bedeutender geworden.

Lesen sie die vierteilige Blogserie auf unserem Safe Intelligence Blog von Prof. Dr. Mario Trapp:

© iStock/MATJAZ SLANIC

The Story of Resilience, Part 1

1. Understanding resilience

Resilience is a key ingredient for lifting cars, industrial manufacturing and medical devices to the next level. It is far more than a fancier synonym of dependability. And the aspect that resilience is standing for is essential for building cognitive systems. That's why resilience is the focus of a new series on the Safe Intelligence Blog. In the first part, we will look behind the term and clarify why resilience is so important and why it is more than just a synonym for dependability.

The Story of Resilience, Part 2

2. The complexity challenge

Resilience is the key ingredient for the next generation of cognitive cyber-physical systems. In this article, part 2 of our series on resilience, we look at the character of complexity to better understand where to start engineering in order to manage this complexity.

The Story of Resilience, Part 3

3. Understanding self-adaptive systems

What are the basic principles of self-adaptive systems? This is the basic prerequisite for bringing the concept of resilience to life. Part 3 of our series.

The Story of Resilience, Part 4

4. Adaptive safety control – why it's the icing on the cake

Safety is a property of a system and its environment. That's why predicting a system's context is so important to safety engineers. In this fourth and final part, we add the missing ingredient by taking safety engineering to the next level.

 

Zu unserem Safe Intelligence Blog

Auf unserem Safe Intelligence Blog finden Sie Blogartikel zu all unseren Forschungsthemen. Lesen Sie direkt weiter!

Was ist Resilienz?

Die Wurzeln des Begriffs Resilienz reichen weit zurück. Der Philosoph und Jurist Francis Bacon (1561 bis 1626) definierte Resilienz als physikalische Eigenschaft eines Körpers, nach Einwirkung einer Kraft in seinen ursprünglichen Zustand wieder zurückkehren zu können.
Bezogen auf technische Systeme bedeutet Resilienzfähigkeit, bei Störungen beziehungsweise Teil-Ausfällen nicht vollständig zu versagen, sondern wesentliche Systemdienstleistungen aufrechtzuerhalten.

Computerwissenschaftler Jean-Claude Laprie definierte Resilienz im Zusammenhang mit Software-Zuverlässigkeit. Ein sehr wichtiger Aspekt dabei: Resilienz bezieht sich auch auf Änderungen, die nicht vorhergesehen wurden oder sogar unvorhersehbar sind. Das Resilienzkonzept akzeptiert somit die Tatsache, dass man nicht in der Lage ist, den Kontext von Systemen vorherzusagen. Resiliente Systeme müssen sich daher immer wieder anpassen, um ihre übergeordneten Ziele in sich verändernden, unsicheren Kontexten zu erreichen.

Resiliente Softwaresysteme zeichnen sich dadurch aus, dass sie in der Lage sind, auf eine Veränderung in einem bestimmten Kontext zu reagieren, indem sie sich diesem anpassen, sodass wesentliche Eigenschaften des Systems erhalten bleiben oder optimiert werden.

Definition Resilienz des Fraunhofer IKS

In den Bereichen, in denen das Fraunhofer IKS aktiv ist, stellt die Schlüsseleigenschaft, welche die Systeme bewahren sollen, die Sicherheit dar. Konkret lautet die Anforderung an die Systeme, eine bestimmte Funktionalität sicher bereitzustellen. Daher versuchen die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer IKS, den Nutzen eines Systems zu optimieren und gleichzeitig die Sicherheit in unsicheren, unbekannten und sich verändernden Kontexten zu erhalten. Die entsprechende Definition von Resilienz lautet dann: Optimierung des Nutzens unter Wahrung der Sicherheit in unsicheren Kontexten.

Abgrenzung zu Zuverlässigkeit

Wenn von der Zuverlässigkeit eines Systems die Rede ist, bezieht sich dieser Begriff eher auf interne Probleme wie fehlerhafte Komponenten oder Programmierfehler. Im Gegensatz dazu konzentriert sich die Resilienz auf den externen Kontext. Auch wenn solche Änderungen oft innerhalb des Systems erkannt werden, liegt die Ursache des Problems im Kontext.

Abgrenzung zu Robustheit

Resilienz ist zwar in gewisser Weise mit Robustheit verwandt, geht aber darüber hinaus. Da sich Resilienz auf Veränderungen im Kontext bezieht, reicht es nicht aus, das gleiche System nur ein wenig härter und robuster zu bauen. Stattdessen muss sich das System anpassen, da sich mit den aktuellen Strukturen und Verhaltensweisen des Systems dessen Ziele unter den neuen Randbedingungen nicht mehr erreichen lassen.

Resilienz und ihre Bedeutung – wo ist Resilienz relevant?

Resilienzfaktoren werden dann entscheidend, wenn ein System sich in einer nicht klar definierten Umgebung bewegt, dem so genannten Open-World-Kontext. Stattdessen befindet sich das System in einem Kontext, der sich nicht vollständig vorhersagen und spezifizieren lässt. Es ist auch nicht möglich, eine einzige statische Lösung zu entwickeln, die für alle möglichen Betriebssituationen geeignet ist. Beispiele sind cyber-physische Systeme wie autonome Fahrzeuge oder mobile Roboter.

Resilienz Beispiele

Autonomes Fahren Level 5

Autonome Fahrzeuge auf Level 5 befinden sich in einem vollkommen offenen und hoch komplexen Kontext. Sie bewegen sich auf einer vierspurigen Autobahn ebenso wie in einer dichten Großstadt. Sie treffen dabei auf eine Vielzahl verschiedener Verkehrsteilnehmer, deren Verhalten nicht vorhersehbar ist. Damit die Vision von fahrerlosen Autos Wirklichkeit werden kann, ist es daher unerlässlich, die Systeme in die Lage zu versetzen, sich an ihren Kontext anzupassen. Damit soll deren Nutzen maximiert und gleichzeitig die Sicherheit gewährleistet werden.

Autonome mobile Roboter

Mobile Roboter, die zum Beispiel in der Lagerlogistik Bauteile oder Waren von A nach B bringen, bewegen sich ebenfalls in einem offenen Kontext. Sie müssen dabei etwa Menschen aus dem Weg gehen, andere Hindernisse umfahren und sich selbstständig orientieren.

Automatisierung mit Cobots – Roboter arbeiten mit dem Menschen zusammen

Immer wenn Systeme mit Menschen interagieren müssen, können nicht planbare Veränderungen des Kontextes entstehen. Beispiel hierfür sind kollaborierende Roboter – so genannte Cobots. Diese arbeiten etwa im Fertigungsumfeld mit menschlichen Werkern zusammen – im Idealfall Hand in Hand. Dabei muss sich das Robotersystem stets an den Menschen anpassen. Denn während der Roboter immer gleich arbeitet, ist dies beim Werker nicht der Fall. Dieser ist zum Beispiel unterschiedlich aufnahmefähig – abhängig von Tageszeit, individuellen Eigenschaften oder persönlicher Motivation.

Resilienz fördern – eine Herausforderung

Systeme in die Lage zu versetzen, sich an Veränderungen des Kontextes anzupassen und die Resilienz zu stärken, führt zu mehr Komplexität. Beispiel: Besteht ein Software-System aus 100 verschiedenen Komponenten und sind für jede einzelne von diesen jeweils fünf Konfigurationen verfügbar, dann bietet dieses System 5100 verschiedene Kombinationsmöglichkeiten, um auf ein bestimmtes Ereignis zu reagieren.

Diese Komplexität lässt sich kaum in den Griff bekommen. Dies wiederum führt zu Qualitätsproblemen, weil nicht mehr gewährleistet werden kann, dass das System seine Funktionen noch erfüllen kann. Eine erhöhte Flexibilität kann also dazu führen, dass sich der Nutzen eines Systems nicht mehr garantieren lässt.

Welche Rolle spielt Künstliche Intelligenz?

Die Herausforderung der Resilienzfähigkeit zeigt sich besonders beim Einsatz von Künstlicher Intelligenz (KI). Die Stärke von KI-Technologien wie etwa neuronalen Netzen ist es, flexibel auf unvorhergesehene Ereignisse zu reagieren. Daher spielen sie etwa beim autonomen Fahren eine entscheidende Rolle, weil das Auto sich nur durch ihre Hilfe im Open-World-Kontext bewegen kann.

Da es sich bei KI wie einem neuronalen Netz aber um sehr komplexe Systeme handelt, lässt sich nicht nachvollziehen, wie ihre Entscheidungen zustande kommen. Die KI ist eine Black Box. Das bedeutet aber auch, dass man kann keine Garantie für das Funktionieren der KI geben kann. Wenn es jedoch um sicherheitskritische Anwendungen wie etwa dem autonomen Fahren geht, dann benötigt man Garantien.

Eine Safety-Schranke in Form von »Wenn-dann-sonst-Anpassungen« einzubauen, löst jedoch das Problem nicht. Denn würde man die KI ihrer größten Stärke – nämlich der Flexibilität – berauben.

Jetzt Kontakt aufnehmen

Kontaktieren Sie uns unverbindlich über das untenstehende Kontaktformular. Wir freuen uns auf Ihre Anfrage und setzen uns schnellstmöglich mit Ihnen in Verbindung.

Vielen Dank für Ihr Interesse am Fraunhofer IKS.

Wir haben Ihnen soeben eine Bestätigungsmail geschickt. Sollten Sie in den nächsten Minuten keine E-Mail erhalten, prüfen Sie bitte Ihren Spam-Ordner oder schicken Sie uns eine E-Mail an business.development@iks.fraunhofer.de.

* Pflichtfelder

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut oder kontaktieren Sie uns per E-Mail:
business.development@iks.fraunhofer.de

Thematischer Fokus (optional)