Safe AI: Absicherung von Künstlicher Intelligenz (KI)

Ein wichtiges Qualitätsmerkmal von Künstlicher Intelligenz (KI) ist deren Sicherheit. Zum einen die Sicherheit vor Missbrauch und Schutz der Daten (Security) aber vor allem auch der Schutz der Menschen, die mit dem System interagieren (Safety).

 

Jetzt Kontakt aufnehmen

In einer 2020 veröffentlichten Studie befragte der Verband der TÜV e.V. Personen zu ihren Sorgen im Zusammenhang mit Künstlicher Intelligenz. Bedenken, dass KI in sicherheitskritischen Anwendungsfällen Fehler machen könnte wurden von 67% der Befragten geäußert. 85 % der Befragten sind der Meinung, KI-basierte Produkte sollten erst auf den Markt gebracht werden dürfen, wenn eine Hersteller-unabhängige Stelle deren Sicherheit überprüft hat. Die Autoren empfehlen daher KI-Anwendungen nach Sicherheitsrisiko zu priorisieren und sicherheitskritische Produkte wiederkehrend zu prüfen.

Wir brauchen neue Methoden zur Absicherung von KI

Im Unterschied zu klassischen Algorithmen besteht bei KI-Algorithmen allerdings das Problem, dass die einzelnen Lernschritte nicht von Menschen interpretiert werden können. Da der Entscheidungsweg der KI undurchsichtig ist, kann die Sicherheit und Zuverlässigkeit der KI bisher nicht ohne weiteres bewertet werden. Diese Nachvollziehbarkeit ist aber notwendig, um Unsicherheiten der KI messbar zu machen und daraufhin dynamische Sicherheitsmechanismen zu entwerfen. Ziel des Fraunhofer IKS ist es, KI Systeme sicherheitsbewusst zu machen. Über eine adaptive, erweiterte Softwarearchitektur werden Fehler der KI abgefangen, damit die KI Menschen nicht gefährden kann.

Ein weiteres Forschungsziel unter dem Schlagwort »Explainable AI« ist es, neuronale Netze selbst nachvollziehbar zu konzipieren. Dies ist eine Grundvoraussetzung für die Absicherung und Zertifizierung von KI-Systemen. Zudem muss das System lernen können, wie es mit gefährlichen Situationen, unklaren Sensordaten oder Fehlverhalten umgeht. Durch die umfassende Absicherung der KI entstehen sichere und gleichzeitig leistungsstarke Kognitive Systeme: Safe AI

Absicherung von KI: Zuverlässige maschinelle Wahrnehmung beim autonomen Fahren

Um in Zukunft autonom fahren zu können, müssen Fahrzeuge in der Lage sein, ihre Umgebung zu erkennen, treffsicher zu interpretieren und daraufhin ihre Handlungen zu optimieren. Das ist nur mit KI-Algorithmen möglich. Bisher ist aber das maschinelle Sehen (Perzeption oder Computer Vision) der KI noch nicht so verlässlich, dass es für den Einsatz in autonomen Fahrzeugen auf öffentlichen Straßen geeignet ist.

© iStock.com/Oleh_Slobodeniuk

Der umfassende Ansatz für KI-Sicherheit des Fraunhofer IKS: Safe AI

Unsicherheiten sichtbar machen

Zunächst müssen daher Wege gefunden werden, Unsicherheiten der Künstlichen Intelligenz quantifizierbar zu machen, um das Verhalten der KI sinnvoll bewerten zu können. Das Fraunhofer-Institut für Kognitive Systeme IKS arbeitet daran, nachweisbar verlässliche Systeme zu schaffen, indem es Unsicherheiten der KI zunächst einen interpretierbaren Wert zuweist und sichtbar macht. So kann die bisher intransparente Klassifizierung der Künstlichen Intelligenz beherrschbar werden. Nur mit dieser Transparenz können passende und flexible Sicherheitskonzepte entworfen werden, um mit den Unsicherheiten der KI umzugehen.

Monitoring

Ein Ansatz des Fraunhofer IKS ist es, Künstliche Intelligenz um eine erweiterte Softwarearchitektur zu ergänzen. Diese überwacht die KI und prüft die getroffenen Entscheidungen auf Plausibilität. Dieses Monitoring funktioniert über klassische Software, welche mit bewährten Safety-Methoden beherrscht und überprüft werden kann.

Dynamisches Safety-Management

Gleichzeitig wird der KI durch den Ansatz des dynamischen Safety-Managements mehr Freiraum gegeben als durch klassische Safety-Ansätze, die immer vom Worst-Case-Szenario ausgehen. So können die Vorteile der schnellen Datenverarbeitung durch maschinelles Lernen genutzt und gleichzeitig mögliche Fehlentscheidungen abgefangen werden. Das ist für die Verwendung von Kognitiven Systemen in sicherheitskritischen Anwendungen relevant. Beispielsweise, wenn wie beim autonomen Fahren durch Fehlentscheidungen der KI Menschenleben gefährdet wären.

© iStock.com/tenra

Continuous Deployment

Kognitive Systeme müssen aus dem Feld lernen können, denn so kann das KI System neu kennengelernte Situationen wiedererkennen und passend handeln. Das kann allerdings nicht durch lernende Algorithmen geschehen. Das Continuous Deployment ist daher ein wichtiger Bestandteil des Absicherungskonzepts des Fraunhofer IKS. Das System muss regelmäßig aktualisiert werden, um neuentdeckte Sicherheitslücken schnell zu schließen und den Funktionsumfang zu erweitern.

Modulare Architekturen

Als wichtiger zusätzlicher Schritt der Absicherung entwickelt das Fraunhofer IKS modulare Architekturen. Durch eine modulare Safety-Architektur aus individuellen Blöcken ist eine schnelle und unkomplizierte Erweiterung des Systems möglich. So können die Ergebnisse der Safety-Analysen kostensparend implementiert werden, indem nur wenige Module ersetzt werden.

Safe AI auf unserem Safe Intelligence Onlinemagazin

 

Künstliche Intelligenz / 9.7.2025

Eine Allianz, von der die Kunden profitieren

Das Fraunhofer IKS ist der Fraunhofer-Allianz Big Data und Künstliche Intelligenz beigetreten. Austausch und Zusammenarbeit innerhalb der Allianz ermöglichten es, Kompetenzen zusammenzuführen und Synergien zu schaffen – zum Vorteil der Kundinnen und Kunden, so Institutsleiter Mario Trapp.

 

Automatica 2025 / 12.6.2025

Einfachheit trifft Effizienz: mit dem Kollegen Roboter sicher zusammenarbeiten

Sehen und gesehen werden – das zählt auch bei der Zusammenarbeit von Mensch und Roboter in der industriellen Produktion. Worum es dabei geht, zeigt das Fraunhofer IKS auf der Automatica Ende Juni in München unter dem Motto: »Dinge dürfen einfach sein«.

 

Industrieautomatisierung / 19.5.2025

MBO-KISS: Die Zukunft der Steuerungsanwendungen in der Industrie

Kann KI die Produktionssteuerung revolutionieren? Eine Antwort auf diese Frage soll das Forschungsprojekt MBO-KISS (Methoden zur Bewertung und Optimierung KI-generierter Steuerungsanwendungen basierend auf der physikalischen Simulation von Maschinen und deren Sollverhalten) geben. Das Projekt startete Anfang 2025 mit einer Laufzeit von drei Jahren. Ziel ist es, die Möglichkeiten von Large Language Modellen (LLMs) zur Generierung und sicheren Anwendung von Steuerungsanwendungen in der Industrieproduktion zu untersuchen.

 

Künstliche Intelligenz / 24.4.2025

Generative AI: eine Revolution für das Gesundheitswesen?

Künstliche Intelligenz und vor allem LLMs gelten vielen als Hoffnungsträger für ein überfordertes Gesundheitssystem. Vor allem könnte KI-basierte Automation bei Aufgaben des Wissensmanagements schnell Entlastung bringen. Bis es so weit ist, müssen Probleme mit Security und Safety gelöst sowie rechtliche Anforderungen erfüllt werden. Die Forschung des Fraunhofer IKS nimmt sich beider Themen an.

 

Serie DEEP, Teil 4 / 11.4.2025

Im Prozess führt DEEP Regie

Die vorherigen Teile unserer Serie sind auf die Technologien »unter der Motorhaube« von DEEP, der Machine-Learning-Toolkette des Fraunhofer IKS, eingegangen. Hier folgt mit den Prozessschritten des DEEP-Verfahrens der Blick auf das »große Ganze« – wie man DEEP einsetzen kann, um die Probleme beim Einsatz von Maschinellem Lernen (ML) für zukünftige flexible Qualitätsinspektion in den Griff zu bekommen.

 

Safe Intelligence
Onlinemagazin

Möchten Sie mehr über die Forschung des Fraunhofer IKS zu Künstlicher Intelligenz erfahren? Dann schauen Sie in unserem Safe Intelligence Onlinemagazin vorbei:

Jetzt Kontakt aufnehmen

Kontaktieren Sie uns unverbindlich über das untenstehende Kontaktformular. Wir freuen uns auf Ihre Anfrage und setzen uns schnellstmöglich mit Ihnen in Verbindung.

Vielen Dank für Ihr Interesse am Fraunhofer IKS.

Wir haben Ihnen soeben eine Bestätigungsmail geschickt. Sollten Sie in den nächsten Minuten keine E-Mail erhalten, prüfen Sie bitte Ihren Spam-Ordner oder schicken Sie uns eine E-Mail an business.development@iks.fraunhofer.de.

* Pflichtfelder

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut oder kontaktieren Sie uns per E-Mail:
business.development@iks.fraunhofer.de

Thematischer Fokus (optional)