Ein Safety Assistant, der auf Generative AI basiert
Künstliche Intelligenz (KI) ermöglicht ein exponentielles Wachstum in vielen Branchen.
Unternehmen möchten das wirtschaftliche Potenzial dieser Technologie nutzen, doch gerade in sicherheitskritischen Systemen werfen KI-basierte und KI-generierte Funktionen erhebliche Sicherheitsbedenken auf. Automatisierung in sicherheitskritischen Umgebungen, insbesondere in der Fertigung, steht vor der Herausforderung, technologische Innovationen mit strengen Sicherheitsanforderungen in Einklang zu bringen.
Während Automatisierungstechnologien durch den Einsatz von Künstlicher Intelligenz (KI) und insbesondere von LLM (Large Language Models) sowie Conversational AI rapide Fortschritte machen, werden die Prozesse immer komplexer und die Sicherheitsstandards hinken hinterher. Denn obwohl KI-Funktionen sehr leistungsfähig sind, können sie kaum Sicherheitsgarantien geben.
AI-Assistants und Large Language Models gewinnen zunehmend an Bedeutung.
Historisch gesehen war die Sicherheitsinnovation immer einen Schritt hinter den technologischen Fortschritten zurück. Diese Lücke war in der Vergangenheit handhabbar, aber mit der exponentiellen Beschleunigung von Innovationen wächst die Kluft zwischen technologischem Fortschritt und Sicherheitsgarantie. Die Arbeit von Safety Engineers wird zunehmend schwieriger und Unternehmen stehen häufiger vor der Wahl, entweder die Innovation zu verlangsamen oder Risiken zu akzeptieren, was beides keine tragfähigen Lösungen sind. Hier könnte ein Safety Assistant, der auf Generative AI basiert, eine Lösung darstellen.
Das Fraunhofer IKS verfolgt einen neuen Ansatz zur Schließung der Lücke zwischen Innovation und Safety:
Durch den Einsatz von generativer KI (GenAI) wollen wir die Arbeit von Safety Engineers unterstützen. Denn generative KI kann kreative Lösungen generieren und große Teile des Safety-Engineering-Workflows automatisieren, beispielsweise die Gefahren- und Risikoanalyse (HARA) und die Ableitung von Sicherheitsanforderungen. Dies ermöglicht es Ingenieurinnen und Ingenieuren, robuste Sicherheitsnachweise selbst für komplexe Anwendungen zu erstellen zum Beispiel für kollaborative Fertigungsroboter.
Am Fraunhofer IKS evaluieren wir diese Methodik, indem wir sie auf einen kollaborativen Montageprozess anwenden.
In diesem Szenario arbeitet ein Roboterarm mit einem Menschen zusammen, um Montageaufgaben zu erledigen, unterstützt von einem autonomen mobilen Roboter, der Komponenten liefert. Eine Kamera wird eingesetzt, um den Arbeitsbereich zu sichern. Ein Signallicht zeigt den Sicherheitsstatus an und der Roboter pausiert automatisch, wenn der Mensch arbeitet. Nachdem die menschliche Aufgabe abgeschlossen ist, setzt der Roboter die Montage sicher fort.
Unsere vorläufigen Tests zeigen, dass Generative AI die Erstellung von Sicherheitsdokumentationen erheblich verbessern kann, indem sie die Organisation und Strukturierung dieser Dokumente automatisiert, um Klarheit und Compliance zu erhöhen. Darüber hinaus können generative Methoden die Effizienz und Gründlichkeit einer HARA steigern, indem sie potenzielle Gefahren in verschiedenen Kategorien identifizieren. Diese Methoden können auch potenzielle Sicherheitsmaßnahmen vorschlagen und vergleichen, Sicherheitsanforderungen ableiten und Lücken in bestehenden Dokumentationen identifizieren.
Während die aktuelle Generation der generativen KI noch nicht zuverlässig genug ist, um diese Aufgaben unabhängig auszuführen, kann sie Safety-Expertinnen und -Experten helfen, indem sie die Belastung durch repetitive Aufgaben verringert.
Um die Systemsicherheit zu gewährleisten, ist es entscheidend, die geplanten Sicherheitsmaßnahmen und die korrekte Umsetzung der Sicherheitsanforderungen zu validieren. In unserem Anwendungsfall evaluieren wir, wie generative KI bei der Planung dieser Aktivitäten unterstützen kann. Beispielsweise kann sie helfen, Simulationstests zu spezifizieren, die die Reaktion des Systems auf verschiedene sicherheitsrelevante Szenarien, die in der HARA identifiziert wurden, einschließlich menschlicher Anwesenheit und Komponentenfehler, untersuchen.
Generative KI stellt einen Paradigmenwechsel im Safety Engineering dar. Sie kann die wirtschaftliche Sicherheitslücke schließen und die Implementierung von KI-gestützten Automatisierungslösungen in sicherheitskritischen Anwendungen ermöglichen. Unser Ansatz zeigt, dass KI-Safety-Assistenten unter Aufsicht von menschlichen Sicherheitsexperten eingesetzt werden können, um Sicherheitsprotokolle zügiger an technologische Fortschritte anzupassen und damit Verzögerungen zu verringern.
In Zukunft wollen wir diese Methodik weiterentwickeln und ausbauen sowie auf andere sicherheitskritische Systeme übertragen. Darüber hinaus wollen wir Ingenieurinnen und Ingenieure bei der nachfolgenden Erstellung des Roboterverhaltens auf Grundlage der generierten Sicherheitsanforderungen unterstützen. Dies würde es ermöglichen, mit Hilfe von KI direkt Steuerungsprogramme zu erstellen, die allen Sicherheitsanforderungen entsprechen, und eine nahtlose und sichere Integration von Automatisierungslösungen gewährleisten.