»Wie verlässlich ist Künstliche Intelligenz tatsächlich?« Mit dieser Frage beschäftigt sich ein Artikel von Markus Strehlitz im Industrieanzeiger. Im Interview erklärt Mario Trapp, Institutsleiter am Fraunhofer ESK (heute: Fraunhofer-Institut für Kognitive Systeme IKS), wie das Forschungsinstitut intransparente KI-Systeme absichert, sodass die Vorteile von KI voll genutzt werden können.
KI funktioniert meistens bereits gut. Aber dieses »meistens« ist nicht genauer definiert, so Mario Trapp. Bei Alltagsanwendungen wie Sprachassistenten ist es nicht kritisch, wenn die KI den Menschen erst auf beim dritten Anlauf versteht. Für sicherheitskritische Anwendungen wie beispielsweise das autonome Fahren ist das jedoch nicht ausreichend.
Problematisch ist an KI auch, dass sie eine Black Box ist. Das heißt, es ist nicht nachvollziehbar, wie das System zu einer Entscheidung kommt. Im Interview erklärt Marion Trapp, wie die Entscheidungen von KI mit klassischen Algorithmen überprüft und plausibilisiert werden können. So kann die Verlässlichkeit der KI kontrolliert werden, damit sie auch in kritischen Anwendungsgebieten eingesetzt werden können.
Den ganzen Artikel von Markus Strehlitz in der Onlineversion des Industrieanzeigers finden Sie hier: https://industrieanzeiger.industrie.de/technik/wie-black-box-ki-transparent-wird