Herr Trapp, was ist das Problem beim Einsatz von Künstlicher Intelligenz?
Mario Trapp: KI funktioniert meistens gut. Aber das »meistens« ist nicht genauer spezifiziert. Nutzen Sie einen Sprachassistenten?
Eher selten.
Trapp: Bei Sprachassistenten wie zum Beispiel Siri oder Alexa braucht man manchmal drei oder vier Anläufe, bis das System verstanden hat, was man wirklich meint. Das ist das Niveau, auf dem sich die KI zur Zeit bewegt. Man kann keine Garantie für ihr Funktionieren geben. Wenn es jedoch um sicherheitskritische Anwendungen geht, in denen etwa Menschenleben von der Technik abhängen, dann benötigt man Garantien.
Es besteht also bei KI derzeit noch ein relativ hohes Risiko, dass diese nicht das gewünschte Ergebnis liefert?
Trapp: Genau. Im vergangenen Jahr gab es in den USA einen Unfall eines Uber-Fahrzeugs mit einer Fußgängerin, die ein Rad schob. Diese wurde zwar als Objekt erkannt. Die KI klassifizierte die Fußgängerin aber als unkritisches Objekt, das man überfahren kann – wie zum Beispiel eine Plastiktüte. Und das ist letzten Endes die Problematik, die entstehen kann.
Heißt konkret?
Trapp: Fachlich gesprochen reden wir von einer so genannten Nichtlinearität bei der KI. Wenn wir Software testen und unsere Testfälle gut wählen, dann gehen wir davon aus, dass sie sich auch in der Realität, die sich immer irgendwo zwischen diesen Testfällen bewegen wird, sicher verhält. Davon können wir heute in der KI aber nicht ausgehen. Im Testfeld kann die KI ein Bild immer korrekt analysieren. Im realen Einsatz kann es jedoch passieren, dass nur ein kleines bisschen Rauschen in das Bild hineinkommt und auf einmal erhält man ein komplett anderes Ergebnis. Das macht die KI heute so schwer beherrschbar.