1. Home
  2. /
  3. Klartext
  4. /
  5. KI, aber sicher
Klartext zum Special Sichere Automation

KI, aber sicher

08.04.2026
von Redaktion DER KONSTRUKTEUR
Der Konstrukteur 03/2026, S. 46 f.: Klartext - KI, aber sicher, mit Experten-Statements von Helmut-Schmidt-Universität, Institut für Arbeitsschutz der DGUV (IFA), Microsoft und Siemens, Screenshot einer Doppelseite aus einem Fachmagazin

In Klartext hat die Redaktion für Ausgabe 03/2026 Expertinnen und Experten aus Industrie und Wissenschaft zum Thema „KI, aber sicher“ befragt – für das Special „Sichere Automation“ anlässlich der Hannover Messe 2026 (20.-24. April 2026). Helmut-Schmidt-Universität, Institut für Arbeitsschutz der DGUV (IFA), Microsoft und Siemens haben Experten-Statements beigetragen, die hier auch online erscheinen.

Künstliche Intelligenz hält Einzug in sicherheitsrelevante Funktionen von Maschinen – von Bildverarbeitung über adaptive Assistenzsysteme bis zur autonomen Entscheidungslogik. Doch lernende Systeme stellen klassische Safety- und Security-Konzepte infrage. Wie lassen sich KI-Funktionen normgerecht, beherrschbar und cyberresilient integrieren? Was bedeutet das für Konstruktion, Entwicklung und Verantwortung im Maschinenbau?

Zu dem Special Sichere Automation haben folgende Expertinnen und Experten Statements beigetragen:

  • Prof. Dr.-Ing. Frank Mantwill, Professur für Maschinenelemente und Rechnergestützte Produktentwicklung, Helmut-Schmidt-Universität, Hamburg
  • Dr. Marcel Beckers, Sachgebietsleiter KI in der Funktionalen Sicherheit, Institut für Arbeitsschutz der DGUV (IFA)
  • Gabriele Eder, General Manager Manufacturing von Microsoft Deutschland
  • Carsten Braunroth, Project Lead Autonomous Factory Lab, Siemens AG

 

Prof. Dr.-Ing. Frank Mantwill

Professur für Maschinenelemente und Rechnergestützte Produktentwicklung, Helmut-Schmidt-Universität, Hamburg

Müssen mit Nachdruck an Standards und Fähigkeiten im Umgang mit KI arbeiten

Nehmen wir beispielsweise einen Flugzeugkonstrukteur, der das Triebwerk mit Schrauben befestigen möchte. Er kennt die Sicherheitsanforderungen im Flugzeugbau sowie die erforderlichen regulatorischen Bestimmungen. Dabei greift er auf Standards zurück und bezieht bei der Auslegung Berechner und Qualitätssicherer mit ein. In der Berechnung können FEM-Simulationen einen tieferen Einblick in die Spannungs- und Dehnungsdynamik geben, vorausgesetzt, die Modelle wurden durch einen Versuch validiert. Diese Vorgehensweise hat sich über Jahrzehnte hinweg entwickelt und genügt der Nachweispflicht bei der Zulassung. Sicherlich kann KI dem Konstrukteur die Arbeit erleichtern und diese eventuell sogar besser erledigen. Aber kann er dann mit seinem heutigen Ingenieurwissen die sicherheitsrelevanten Eigenschaften der Verschraubung absichern und nachweisen? Verfügen wir heute über die dafür erforderlichen Standards, Expertisen und Fähigkeiten im Umgang mit KI? Ich meine, daran müssen wir mit Nachdruck arbeiten, um das Potenzial zu erschließen.

 

Dr. Marcel Beckers

Sachgebietsleiter KI in der Funktionalen Sicherheit, Institut für Arbeitsschutz der DGUV (IFA)

KI-Systeme sind flexibler, aber schwerer zu validieren

Klassische Systeme folgen festen, vom Menschen definierten Regeln. KI-Systeme hingegen lernen aus Daten und treffen Entscheidungen probabilistisch. Das macht sie flexibel, aber weniger transparent und schwerer zu validieren. Für Prüfstellen und Entwickler stellt sich daher gleichermaßen die Frage, wie funktionale Sicherheit für KI-Systeme künftig nachgewiesen und zertifiziert werden kann. Testdaten spielen dabei eine zentrale Rolle, da viele KI-Modelle als Black Box nur über ihre Reaktionen auf verschiedene Eingaben bewertet werden können. Sie müssen daher den gesamten geplanten Einsatzbereich abdecken. Gleichzeitig ist die System­architektur entscheidend, da einzelne KI-Modelle oft nicht die für Sicherheitstechnik erforderliche Zuverlässigkeit erreichen. Ergänzende Monitor- oder Testkanäle sowie redundante Modelle können dazu erforder­lich sein. Letztlich gelten auch für KI die Grundprinzipien funktionaler Sicherheit, wenn es darum geht, dass Menschen verletzt werden könnten: Keine unvertretbaren Restrisiken und ausreichend niedrige Ausfallwahrscheinlichkeiten.

 

Gabriele Eder

General Manager Manufacturing von Microsoft Deutschland

Safety und Cyber Security müssen von Beginn an gemeinsam gedacht werden

Der zunehmende Einsatz von KI verändert den Charakter von Maschinenfunktionen grundlegend. Wo Systeme bislang deterministisch reagierten, entstehen lernende, kontextabhängige Verhaltensweisen. Damit verschiebt sich der Fokus in Konstruktion und Entwicklung: weg von reiner Funktionalität hin zu einem ganzheitlichen Verständnis von Risiko, Verantwortung und Systemverhalten über den gesamten Lebenszyklus. KI erfordert daher ein Umdenken. Safety und Cyber Security müssen von Beginn an gemeinsam gedacht werden – im Sinne eines „secure and safe by design“. Technisch bedeutet das klare Funktionsgrenzen, nachvollziehbare Entscheidungslogiken sowie robuste Daten und Modellvalidierung inklusive kontinuierlichem Monitoring. Normativ braucht es die stringente Anwendung bestehender Standards und deren Weiterentwicklung für KI-basierte Systeme. Organisatorisch sind klare Verantwortlichkeiten, interdisziplinäre Teams und ein durchgängiges Risikomanagement entscheidend. Wenn KI beherrschbar, erklärbar und cyberresilient umgesetzt wird, kann sie sicher und verantwortungsvoll in Maschinen eingesetzt werden.

 

Carsten Braunroth

Project Lead Autonomous Factory Lab, Siemens AG

Autonome Fabriken erfordern adaptiv reagierende Safety und Security

Safety und Cybersecurity sind wichtige Bestandteile unserer Vision einer autonomen Fabrik, welche durch industrieharte künstliche Intelligenz ermöglicht wird. In der autonomen Fabrik werden Menschen nahtlos mit Maschinen zusammenarbeiten; künstliche Intelligenz wird unterstützend oder gar autonom Entscheidungen übernehmen. Das erfordert auch Safety- und Securitykonzepte, die adaptiv reagieren. Ein Beispiel sind mobile Transportsysteme, die zunehmend als autonome physische Agenten zum Einsatz kommen und durch KI ausgesteuert werden. Diese Systeme müssen zuverlässig Hindernisse in einer flexiblen Umgebung erkennen, was eine große Herausforderung für konventionelle Safety-Lösungen darstellt. Siemens Safe Velocity ermöglich hier softwarebasiert eine fehlersichere Überwachung der Geschwindigkeit und dynamische Umschaltung von Sicherheitsfeldern.

 

Bilder: Helmut-Schmidt-Universität, Institut für Arbeitsschutz der DGUV (IFA), Microsoft und Siemens

Jetzt Newsletter abonnieren

Technologische Innovationen und Branchentrends aus allen Teilbereichen der Fluidtechnik –
Verpassen Sie nicht unsere besten Inhalte

Hier registrieren

Weitere Artikel

Strukturmechanische Simulation im Digital Engineering
Strukturmechanische Simulation im Digital Engineering

CADFEM zeigt in einem neuen Whitepaper, warum präzise strukturmechanische Simulationen im Digital Engineering unverzichtbar sind. Belastbare FEM-Ergebnisse sorgen für weniger „Trial and Error“ und Überraschungen – innerhalb der gesamten Entwicklungskette.

Schweizer Gewindetriebe-Sepzialist unter neuem Namen
Schweizer Gewindetriebe-Sepzialist unter neuem Namen

Festo hat die Eichenberger Gewinde AG aus Burg in der Schweiz zum 1. April 2026 vollständig integriert. Zukünftig firmiert das Schweizer Unternehmen als Festo Gewindetriebe AG. Hansruedi Hager, bisher Geschäftsführer der Eichenberger Gewinde AG, ist auch nach der Integration und Umfirmierung Geschäftsführer der Festo Gewindetriebe AG.

You have Successfully Subscribed!

You have Successfully Subscribed!