Das Fraunhofer IKS bringt Sicherheit und Künstliche Intelligenz (KI) zusammen: Robuscope, eine neue Anwendung des Fraunhofer-Instituts für Kognitive Systeme IKS bewertet auf Knopfdruck die Zuverlässigkeit von Künstlicher Intelligenz.
Industrieunternehmen, Universitäten und andere wissenschaftliche Einrichtungen haben mit Robuscope die Möglichkeit, die von ihrem KI-Modell ermittelten Ergebnisse hinsichtlich ihrer Robustheit zu prüfen. Hierfür nutzt die neue Plattform Kennzahlen zur Unsicherheits- und Robustheitsbestimmung, um zu bewerten, wie sicher die jeweiligen Auswertungen der getesteten KI-Modelle sind. Um anschließend die getesteten KI-Modelle optimieren und damit sicherer gestalten zu können, liefert das Online-Tool des Fraunhofer IKS detaillierte Hinweise auf Verbesserungspotential.
Konkret liefert Robuscope Antworten auf folgende Fragen:
- Wie zuverlässig ist die Selbsteinschätzung der Künstlichen Intelligenz?
- Wie robust ist das Modell?
- Von welcher Güte sind die Vorhersagen?
Das Besondere: Verlässliche Aussagen ohne sensible Daten
Zur Nutzung des Tools müssen keine sensiblen oder vertraulichen Daten hochgeladen werden wie beispielsweise das KI-Modell oder echte Daten. Die Qualität des genutzten KI-Modells wird anhand der Ergebnisse eines Testdatensatzes überprüft und bewertet werden.