Zuverlässige Künstliche Intelligenz

Künstliche Intelligenz: Sicherheit für Industrie, Medizin und autonomes Fahren erfordert zuverlässige Entscheidungen

KI-Lösungen können die Effizienz in der Produktion, Logistik, Materialprüfung oder Medizin erheblich steigern. Andere Technologien wie die Überwachung der Perzeption für das autonome Fahren macht Künstliche Intelligenz erst möglich. Doch selbst kleine Fehler der KI können in diesen Branchen teure Stillstände oder lebensbedrohliche Situationen hervorrufen. Dann gefährdet Künstliche Intelligenz die Sicherheit des Systems (Safety). Damit Unternehmen aus der Industrie, Medizintechnik oder Automobilwirtschaft dennoch KI einsetzen können, müssen sie nachweisen, dass die Künstliche Intelligenz sichere Entscheidungen trifft.

Möglichkeiten einer Kooperation mit dem Fraunhofer IKS finden Sie hier

 

Sicherheit von Künstlicher Intelligenz lässt sich nicht mit klassischen Methoden nachweisen

© iStock.com/chinaface

Die Entscheidungsqualität von Künstlicher Intelligenz lässt sich jedoch bislang nicht mit formalen Methoden nachweisen. Umfangreiche Testdaten können zwar die Robustheit der KI für ebendiese Daten belegen, eine Verallgemeinerung auf allen möglichen Eingaben ist aber auch damit nicht möglich. Bereits kleinere Veränderungen in der Umgebung können beispielsweise die Bilderkennung erschweren. Ist ein Sensor verschmutzt oder herrschen ungünstige Wetterbedingungen, beeinflusst dies die Entscheidung einer KI stark und unvorhersehbar. Zwar gibt es Forschungsansätze, bei denen die KI ihre Verlässlichkeit selbst einschätzt, doch diese sind noch nicht ausgereift. Letztendlich kann KI nicht mit klassischen Methoden abgesichert werden.

Das Fraunhofer IKS macht Künstliche Intelligenz sicher und zuverlässig

Damit Künstliche Intelligenz dennoch in sicherheitskritischen Anwendungsbereichen wie Industrie 4.0, dem autonomen Fahren oder der Medizin eingesetzt werden kann, bietet Ihnen das Fraunhofer-Institut für Kognitive Systeme IKS wichtige Mechanismen für den Nachweis der Qualität und Sicherheit Ihrer KI-Lösung. Wir entwickeln für Sie

  • neue Verfahren, um die Erklärbarkeit, Transparenz und Robustheit neuronaler Netze zu verbessern
  • Methoden und Qualitäts-Metriken, um die Vertrauenswürdigkeit oder Fehlerwahrscheinlichkeit eines neuronalen Netzes zu bestimmen
  • KI-Monitore, welche die Laufzeiteigenschaften der Künstlichen Intelligenz absichern
  • Komponenten, welche die Verarbeitungskette automatisiert absichern, z.B. für die Perzeptionskette beim autonomen Fahren
  • Prüfkriterien für die Safety-Analyse Ihrer KI

Neben der Auftragsentwicklung bieten wir Ihnen verschiedene weitere Möglichkeiten der Zusammenarbeit, wie beispielsweise gemeinsame Innovationsteams, Studien und Potenzialanalysen. Hier finden Sie einer Übersicht unserer Kooperationsmöglichkeiten.

Weitere Informationen

 

Blogartikel zu Künstlicher Intelligenz

Sie wollen mehr zur Forschung des Fraunhofer IKS rund um das Thema Künstliche Intelligenz erfahren? Dann schauen Sie auf unserem Blog vorbei.

Vortrag: Einsatz von KI in sicherheitskritischen Systemen

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Vortrag von Mario Trapp: »Safety first« Künstliche Intelligenz in sicherheitskritischen Anwendungen

Wie kann man Künstliche Intelligenz für praktische Anwendungen absichern? – Diese Frage beantwortet Mario Trapp in seinem Vortrag für das Bitkom AI Reserach Network. Er erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Fahrzeuge nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.