Was steckt hinter dem EU AI Act?
Der Gesetzesvorschlag wird derzeit im Europäischen Rat und im Europäischen Parlament diskutiert und für die Verabschiedung vorbereitet. Bei einer Verabschiedung im Jahr 2023 wird mit einem Inkrafttreten des AI Act 24 Monate später, also 2025, gerechnet. Bei Verstößen gegen die Verordnung drohen Unternehmen Strafzahlungen von bis zu 6 Prozent des weltweiten Jahresumsatzes.
Wesentlicher Bestandteil des Gesetzes ist ein risikobasierter Ansatz, der sich unter anderem in der Schaffung von vier Risikokategorien für den Einsatz von KI manifestiert. Die Einteilung in Risikokategorien erfolgt anhand verschiedener Risikoaspekte wie Fairness, Transparenz, Robustheit und Zuverlässigkeit. Daraus ergibt sich für Unternehmen zukünftig die Verpflichtung, die eingesetzten KI-Anwendungen und die damit verbundenen Risiken zu identifizieren, zu analysieren, zu bewerten und entsprechend zu managen.
Die Verordnung wird sich auf verschiedene Branchen auswirken, dürfte aber vor allem für die Automobilindustrie von Bedeutung sein. Für OEMs und deren Zulieferer sind in diesem Zusammenhang die Aspekte Robustheit, Zuverlässigkeit sowie Transparenz und Nachvollziehbarkeit von KI und KI-Entscheidungen als hoch relevant einzustufen.
Bedeutung im Kontext Software Defined Vehicle
Die in Fahrzeugen eingesetzte Software und die damit verbundenen Aspekte Safety und Security rücken zunehmend in den Fokus von Regulierungsbehörden und Gesetzgebern. Es ist zu beobachten, dass der Dreiklang aus Safety, Security und Software Management im Zuge der Entwicklung hin zu Software Defined Vehicles immer mehr Beachtung findet. Der EU AI Act stellt keine explizite Regelung für die Automobilindustrie dar, betrifft diese aber in besonderem Maße. Der AI Act fokussiert insbesondere auf KI-Systeme, die Auswirkungen auf die Sicherheit (Safety) von Menschen und Infrastruktur haben - dazu zählen auch Fahrzeuge, die solche Systeme nutzen oder mit ihnen entwickelt wurden. Dieser Artikel beleuchtet die Auswirkungen des EU AI Act auf die Bereiche Software Engineering und szenariobasiertes Testen, wie es insbesondere bei automatisierten Fahrfunktionen zum Einsatz kommt.
Auswirkung auf die Entwicklung und Testing von Software
Insbesondere im Kontext des autonomen Fahrens wird eine deutliche Verkürzung der Kette Entwicklung - Validierung/Testing - Homologation unter Einhaltung aller rechtlichen und qualitativen Rahmenbedingungen erforderlich sein. Insbesondere ist zu beobachten, dass im Bereich des Testens und der Validierung von Software verstärkt künstliche Intelligenz zum Einsatz kommen wird. Nur so kann die stetig wachsende Menge an Softwarecode beherrschbar gemacht, kritische Fehler im Feld zeitnah behoben und neue Anwendungsfälle zur Erschließung von Geschäftspotenzialen genutzt werden.
Gerade im Bereich des autonomen Fahrens können Systeme mit künstlicher Intelligenz zum Testen von Szenarien eingesetzt werden. Insbesondere für die Validierung von KI-Systemen, die in einem Open-World-Kontext operieren, werden viele Testszenarien benötigt. Das Konzept der «offenen Welt» ist für die Automobilindustrie von großer Bedeutung, da autonome Fahrzeuge in einer dynamischen und unvorhersehbaren Umgebung operieren müssen. So muss ein autonomes Fahrzeug in der Lage sein, mit unerwarteten Situationen umzugehen, z. B. mit Fußgängern, die plötzlich auf der Straße auftauchen, oder mit Baustellen, die es vorher nicht kannte. In solchen Situationen muss das KI-System des Fahrzeugs in der Lage sein, sich anzupassen und Entscheidungen auf der Grundlage unvollständiger oder unsicherer Informationen zu treffen, um einen sicheren und effizienten Betrieb zu gewährleisten. Daher ist die Validierung von KI-Systemen in einer offenen Welt von entscheidender Bedeutung, um ihre Zuverlässigkeit und Sicherheit in der Automobilindustrie zu gewährleisten. Dabei müssen die eingesetzten KI-Systeme zukünftig die hohen Anforderungen des Gesetzgebers im Sinne des EU AI Acts erfüllen und in diesen integriert werden. Dabei sollte der risikobasierte Ansatz des KI Act zum Tragen kommen, um sicherzustellen, dass negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen vermieden werden.
Aus einer anderen Perspektive lässt sich argumentieren, dass KI-Systeme zunehmend in Fahrzeuge integriert werden. KI kann das Verhalten eines Systems, z. B. eines Fahrerassistenzsystems, im Rahmen seines bestimmungsgemäßen Gebrauchs beeinflussen. In diesem Zusammenhang wird KI häufig für Funktionen eingesetzt, die schwer vollständig zu definieren sind, insbesondere für Systeme, die in komplexen und dynamischen Umgebungen ohne Benutzereingriff automatisch funktionieren sollen. Obwohl KI dazu beitragen kann, die Komplexität des Straßenverkehrs zu bewältigen und die Fahrzeugautomatisierung zu verbessern, kann sie mit dem KISS-Ansatz (Keep It Simple, Stupid) für Sicherheitslösungen in Konflikt geraten. Im Falle des automatisierten Fahrens ist die Sicherheit des beabsichtigten Verhaltens entscheidend und wird unter dem Thema "Safety of the intended functionality" (SOTIF) behandelt. SOTIF konzentriert sich primär auf die Identifikation von Fehlern in der Verhaltensspezifikation und nicht auf die Bewertung, ob ein bestimmtes Verhalten zu riskant oder noch akzeptabel ist. Der EU AI Act wird in Zukunft genau hier ansetzen und vorschreiben, dass KI-Systeme, die in Hochrisikoanwendungen wie (teil-)autonomen Fahrzeugen eingesetzt werden, strenge Test- und Validierungsverfahren durchlaufen müssen, um ihre Sicherheit und Zuverlässigkeit zu gewährleisten.
EU AI Act und autonomes Fahren - Ausblick auf das Zusammenspiel mit existierenden Regulierungen
Bestehende Rahmenwerke zur Bewältigung sicherheitsrelevanter und ethischer Herausforderungen werden bereits durch Rechtsvorschriften adressiert, die im Rahmen der UNECE WP.29 geregelt werden. Diese behandeln bereits verschiedene Sicherheitsaspekte des automatisierten Fahrens. Die UN-Regelung und die entsprechenden ISO-Standards zu automatisierten Spurhaltesystemen (ALKS, UNECE R157), Software-Update-Management (SUMS, UNECE R156/ ISO 24089) und Cybersecurity (CSMS, UNECE R155/ ISO/SAE 21434) sowie die Rahmenverordnung zu automatisierten/autonomen Fahrzeugen sind nur einige der Vorschriften, die Teil des bestehenden Rahmens sind.
Um Überschneidungen mit bestehenden Regulierungsmechanismen, Konformitätsbewertungsverfahren und der Überwachung und Marktaufsicht für Fahrzeuge zu vermeiden, sollten die aus dem EU AI Act abgeleiteten Anforderungen an Fahrzeuge, Fahrzeugfunktionen und eingesetzte Systeme in den bestehenden Rahmen für die Typgenehmigung von Fahrzeugen integriert werden. In diesem Sinne ist davon auszugehen, dass in Zukunft konkrete UNECE-Regelungen aus dem EU AI Act abgeleitet werden.
Zusammenfassend ist zu erwarten, dass die neue EU-Verordnung zur künstlichen Intelligenz einen großen Einfluss haben wird, insbesondere auf die Art und Weise, wie die Automobilindustrie zukünftig (zusammen)arbeitet und Fahrzeuge entwickelt, um die Sicherheits- und Zuverlässigkeitsanforderungen des EU AI Act zu erfüllen.
Zusammenhang mit dem EU Data Act
Zeitgleich hat die EU-Kommission ein weiteres neues Gesetz auf den Weg gebracht: den EU Data Act. Die Verbindung zwischen dem EU AI Act und dem EU Data Act besteht darin, dass KI-Systeme auf Daten angewiesen sind und Daten der Treibstoff für KI sind. Um KI-Systeme entwickeln und einsetzen zu können, die dem EU AI Act entsprechen, müssen Unternehmen und Organisationen sicherstellen, dass sie Zugang zu qualitativ hochwertigen Daten haben, die den Anforderungen des EU Data Act entsprechen. Dies bedeutet, dass die Daten auf transparente und nachvollziehbare Weise erhoben, verarbeitet und genutzt werden müssen und dass angemessene Maßnahmen zum Schutz der Privatsphäre und der Sicherheit vorhanden sein müssen.
In diesem und einem weiteren Blogbeitrag zeigen wir auf, welche Auswirkungen die neuen EU-Verordnungen auf die Automobilindustrie haben und was die Branche jetzt tun muss, um in Zukunft rechtskonform und innovativ zu agieren.