In Klartext hat die Redaktion für Ausgabe 03/2026 Expertinnen und Experten aus Industrie und Wissenschaft zum Thema „KI, aber sicher“ befragt – für das Special „Sichere Automation“ anlässlich der Hannover Messe 2026 (20.-24. April 2026). Helmut-Schmidt-Universität, Institut für Arbeitsschutz der DGUV (IFA), Microsoft und Siemens haben Experten-Statements beigetragen, die hier auch online erscheinen.
Künstliche Intelligenz hält Einzug in sicherheitsrelevante Funktionen von Maschinen – von Bildverarbeitung über adaptive Assistenzsysteme bis zur autonomen Entscheidungslogik. Doch lernende Systeme stellen klassische Safety- und Security-Konzepte infrage. Wie lassen sich KI-Funktionen normgerecht, beherrschbar und cyberresilient integrieren? Was bedeutet das für Konstruktion, Entwicklung und Verantwortung im Maschinenbau?
Zu dem Special Sichere Automation haben folgende Expertinnen und Experten Statements beigetragen:
- Prof. Dr.-Ing. Frank Mantwill, Professur für Maschinenelemente und Rechnergestützte Produktentwicklung, Helmut-Schmidt-Universität, Hamburg
- Dr. Marcel Beckers, Sachgebietsleiter KI in der Funktionalen Sicherheit, Institut für Arbeitsschutz der DGUV (IFA)
- Gabriele Eder, General Manager Manufacturing von Microsoft Deutschland
- Carsten Braunroth, Project Lead Autonomous Factory Lab, Siemens AG
Prof. Dr.-Ing. Frank Mantwill
Professur für Maschinenelemente und Rechnergestützte Produktentwicklung, Helmut-Schmidt-Universität, Hamburg
Müssen mit Nachdruck an Standards und Fähigkeiten im Umgang mit KI arbeiten
Nehmen wir beispielsweise einen Flugzeugkonstrukteur, der das Triebwerk mit Schrauben befestigen möchte. Er kennt die Sicherheitsanforderungen im Flugzeugbau sowie die erforderlichen regulatorischen Bestimmungen. Dabei greift er auf Standards zurück und bezieht bei der Auslegung Berechner und Qualitätssicherer mit ein. In der Berechnung können FEM-Simulationen einen tieferen Einblick in die Spannungs- und Dehnungsdynamik geben, vorausgesetzt, die Modelle wurden durch einen Versuch validiert. Diese Vorgehensweise hat sich über Jahrzehnte hinweg entwickelt und genügt der Nachweispflicht bei der Zulassung. Sicherlich kann KI dem Konstrukteur die Arbeit erleichtern und diese eventuell sogar besser erledigen. Aber kann er dann mit seinem heutigen Ingenieurwissen die sicherheitsrelevanten Eigenschaften der Verschraubung absichern und nachweisen? Verfügen wir heute über die dafür erforderlichen Standards, Expertisen und Fähigkeiten im Umgang mit KI? Ich meine, daran müssen wir mit Nachdruck arbeiten, um das Potenzial zu erschließen.
Dr. Marcel Beckers
Sachgebietsleiter KI in der Funktionalen Sicherheit, Institut für Arbeitsschutz der DGUV (IFA)
KI-Systeme sind flexibler, aber schwerer zu validieren
Klassische Systeme folgen festen, vom Menschen definierten Regeln. KI-Systeme hingegen lernen aus Daten und treffen Entscheidungen probabilistisch. Das macht sie flexibel, aber weniger transparent und schwerer zu validieren. Für Prüfstellen und Entwickler stellt sich daher gleichermaßen die Frage, wie funktionale Sicherheit für KI-Systeme künftig nachgewiesen und zertifiziert werden kann. Testdaten spielen dabei eine zentrale Rolle, da viele KI-Modelle als Black Box nur über ihre Reaktionen auf verschiedene Eingaben bewertet werden können. Sie müssen daher den gesamten geplanten Einsatzbereich abdecken. Gleichzeitig ist die Systemarchitektur entscheidend, da einzelne KI-Modelle oft nicht die für Sicherheitstechnik erforderliche Zuverlässigkeit erreichen. Ergänzende Monitor- oder Testkanäle sowie redundante Modelle können dazu erforderlich sein. Letztlich gelten auch für KI die Grundprinzipien funktionaler Sicherheit, wenn es darum geht, dass Menschen verletzt werden könnten: Keine unvertretbaren Restrisiken und ausreichend niedrige Ausfallwahrscheinlichkeiten.
Gabriele Eder
General Manager Manufacturing von Microsoft Deutschland
Safety und Cyber Security müssen von Beginn an gemeinsam gedacht werden
Der zunehmende Einsatz von KI verändert den Charakter von Maschinenfunktionen grundlegend. Wo Systeme bislang deterministisch reagierten, entstehen lernende, kontextabhängige Verhaltensweisen. Damit verschiebt sich der Fokus in Konstruktion und Entwicklung: weg von reiner Funktionalität hin zu einem ganzheitlichen Verständnis von Risiko, Verantwortung und Systemverhalten über den gesamten Lebenszyklus. KI erfordert daher ein Umdenken. Safety und Cyber Security müssen von Beginn an gemeinsam gedacht werden – im Sinne eines „secure and safe by design“. Technisch bedeutet das klare Funktionsgrenzen, nachvollziehbare Entscheidungslogiken sowie robuste Daten und Modellvalidierung inklusive kontinuierlichem Monitoring. Normativ braucht es die stringente Anwendung bestehender Standards und deren Weiterentwicklung für KI-basierte Systeme. Organisatorisch sind klare Verantwortlichkeiten, interdisziplinäre Teams und ein durchgängiges Risikomanagement entscheidend. Wenn KI beherrschbar, erklärbar und cyberresilient umgesetzt wird, kann sie sicher und verantwortungsvoll in Maschinen eingesetzt werden.
Carsten Braunroth
Project Lead Autonomous Factory Lab, Siemens AG
Autonome Fabriken erfordern adaptiv reagierende Safety und Security
Safety und Cybersecurity sind wichtige Bestandteile unserer Vision einer autonomen Fabrik, welche durch industrieharte künstliche Intelligenz ermöglicht wird. In der autonomen Fabrik werden Menschen nahtlos mit Maschinen zusammenarbeiten; künstliche Intelligenz wird unterstützend oder gar autonom Entscheidungen übernehmen. Das erfordert auch Safety- und Securitykonzepte, die adaptiv reagieren. Ein Beispiel sind mobile Transportsysteme, die zunehmend als autonome physische Agenten zum Einsatz kommen und durch KI ausgesteuert werden. Diese Systeme müssen zuverlässig Hindernisse in einer flexiblen Umgebung erkennen, was eine große Herausforderung für konventionelle Safety-Lösungen darstellt. Siemens Safe Velocity ermöglich hier softwarebasiert eine fehlersichere Überwachung der Geschwindigkeit und dynamische Umschaltung von Sicherheitsfeldern.
Bilder: Helmut-Schmidt-Universität, Institut für Arbeitsschutz der DGUV (IFA), Microsoft und Siemens






