14:00 Uhr
Künstliche Intelligenz in der Robotik
Effektive Strategien zur Sicherheitsargumentation
Details anzeigen
Autor:in:
Tim Jones | exida.com GmbH | Germany
Sprache:
Deutsch
Zielgruppe:
Safety-Ingenieure und -Manager, Risikomanager, Qualitätsingenieure und -Manager, Projektleiter, Entwicklungsingenieure, Algorithmenentwickler
Voraussetzungen:
Grundkenntnisse zu Funktionaler Sicherheit und KI / Machine Learning sind hilfreich (aber nicht zwingend)
Überblick und Zusammenfassungen:
Ohne Zweifel bietet Künstliche Intelligenz (KI) in der Robotik neue Entwicklungsmöglichkeiten, wie z.B. auf dem Gebiet der Mensch-Maschine-Interaktion. Dem Potential dieser Methoden stehen allerdings meist hohe Komplexität und Intransparenz gegenüber. Speziell in sicherheitskritischen Anwendungen der Robotik ist daher eine der größten Herausforderungen ein glaubwürdiges und belastbares Zuverlässigkeitsargument zu formulieren – das regulatorische Umfeld hat darauf noch keine klare Antwort, es entwickeln sich aber vielfältige Ansätze, wie z.B. in VDE-AR-E 2842-61 oder ISO/IEC TR 5469.
Mit zunehmend komplexer werdenden Systemen werden die Anforderungen an Safety & Security auch weiter steigen. Folgende Fragestellungen müssen daher zwingend beantwortet werden:
• Wie sicher ist sicher genug?
• Wie quantifiziert man Sicherheit von KI?
• Mit welchen Mechanismen kann man KI-Systeme absichern?
Basierend auf unseren Erfahrungen geben wir Empfehlungen für ein praktikables Vorgehen zur systematischen Absicherung von KI-Systemen im Einklang mit Normen wie der IEC 61508, ISO 13849, IEC 62061 oder ISO 10218.
Unsere Ansätze unterstützen dabei sowohl Assessoren und Auditoren als auch Ingenieure und helfen die Sicherheitsargumentation zu bewerten, zu erstellen oder zu verbessern.
Art der Vermittlung:
(kondensierter) Erfahrungsbericht, Diskussion
Nutzen:
Systematische Herangehensweise zur Entwicklung und Bewertung von (Robotik-)Systemen die KI beinhalten im Einklang mit klassischen Normen der Funktionalen Sicherheit
Kennenlernen von Knackpunkten der Funktionalen Sicherheit
Kennenlernen von Methoden zur Absicherung von KI-Systemen
Erfahrungsaustausch
14:50 Uhr
Functional Safety von der Stange
C-Code und Modelle mit dem Universal-Safety-Format absichern
Details anzeigen
Autor:in:
Dr. Klaus Birken | itemis AG | Germany
Sprache:
Deutsch (bei Bedarf auch Englisch)
Zielgruppe:
Entwickler, Architekten und Safety-Experten
Voraussetzungen:
keine (alles wird erklärt, Kontext wird gesetzt)
Überblick und Zusammenfassungen:
Um Safety-Anforderungen an Embedded-Produkte zu erfüllen, werden Mechanismen wie Triple Modular Redundancy (TMR) oder CRC-Checks heute meist von Hand in den Source-Code eingebaut. Dies ist aufwändig und fehleranfällig. Im Rahmen des BMBF-geförderten Forschungsprojekts SAFE4I wurden deshalb Methoden entwickelt, um Safety-Mechanismen automatisch in Programmcode oder in Architekturmodelle einzubringen. Zur domänenunabhängigen Beschreibung von solchen Mechanismen wurde das Universal Safety Format (USF) entworfen. Mit USF lassen sich Mechanismen wie TMR als Modelltransformationen definieren und später gleichermaßen auf C-Code, SysML- oder Simulink-Modelle automatisiert anwenden. Dies erlaubt den Aufbau von Safety-Mechanismus-Bibliotheken und somit von "Functional Safety von der Stange".
Die USF-Technologie wurde u.a. basierend auf den Open-Source-Tools MPS und mbeddr umgesetzt und so erlebbar gemacht. Im Vortrag wird das Verfahren anhand von Embedded-C-Code- und Modell-Beispielen anschaulich erklärt.
Art der Vermittlung:
Erklärung von Ziel, Methoden und technischen Ansätzen, sowie ausführliche praktische Demos
Nutzen:
Für den Entwickler und Architekten von Embedded Systemen bringt der Vortrag folgende Vorteile:
* Kennenlernen typischer Safety-Maßnahmen für C-Code und Architekturmodelle
* neueste industrierelevante Resultate aus einem aktuellen Forschungsprojekt
* Einblick in modellbasierte Open-Source-Technologien mit MPS und mbeddr
* praktische Anwendung von fortgeschrittenen Modellierungsmethoden
Besonderheiten: Der Vortrag hat einen hohen praktischen Anteil und viele Demos. Der größte Teil der eingesetzten Technologie ist Open-source.
15:40 Uhr
KI als relevanter Beitrag zu einer Sicherheitsfunktion
Wie wird KI konform zu TR 5469 und AR 2842-61 in ein funktional sicheres System eingebracht?
Details anzeigen
Autor:in:
Frank Poignée | infoteam Software AG | Germany
Sprache:
Deutsch
Zielgruppe:
Interessierte zum Thema Funktionale Sicherheit
Voraussetzungen:
-keine-
Überblick und Zusammenfassungen:
KI in ein funktional sicheres System zu integrieren ist nicht einfach, da wir darauf angewiesen sind, normative Anforderungen zu erfüllen.
Die IEC 61508 als Basisnorm der funktionalen Sicherheit, referenziert auf den TR 5469 für Systeme, bei denen KI einen relevanten Beitrag zur Sicherheitsfunktion bilden.
Dieser TR 5469 wurde in Zusammenarbeit der Experten der IEC SC65A aus dem Bereich der funktionalen Sicherheit und den KI Experten der ISO/IEC SC42 WG3 erstellt und liefert eine Richtlinie zu Überlegungen, die für einen Einsatz einer KI in einer Sicherheitsfunktion als notwendig erwartet werden.
Deutlich konkreter als der TR formuliert die VDE-AR 2842-61 ein generisches Framework für die Entwicklung und Vertrauenswürdigkeit von autonom/kognitiven Systemen.
Der Vortrag greift zentrale Elemente sowohl aus der TR, als auch aus der AR auf, um in Beispielen eine konforme Vorgehensweise für funktional sichere Systeme mit KI als relevanten Beitrag zur Sicherheitsfunktion vorzustellen.
Art der Vermittlung:
Erklärung und Diskussion
Nutzen:
Verständnis für die TR 5469 und die VDE-AR 2842-61 und deren Anwendung für funktional sichere Systeme mit KI als relevanten Beitrag zur Sicherheitsfunktion