© iStock.com/BublikPolina

Zuverlässige Künstliche Intelligenz

Künstliche Intelligenz: Sicherheit für Industrie, Medizin und autonomes Fahren erfordert zuverlässige Entscheidungen

KI-Lösungen können die Effizienz in der Produktion, Logistik, Materialprüfung oder Medizin erheblich steigern. Andere Technologien wie die Überwachung der Perzeption für das autonome Fahren macht Künstliche Intelligenz erst möglich. Doch selbst kleine Fehler der KI können in diesen Branchen teure Stillstände oder lebensbedrohliche Situationen hervorrufen. Dann gefährdet Künstliche Intelligenz die Sicherheit des Systems (Safety). Damit Unternehmen aus der Industrie, Medizintechnik oder Automobilwirtschaft dennoch KI einsetzen können, müssen sie nachweisen, dass die Künstliche Intelligenz sichere Entscheidungen trifft.

 

Sicherheit von Künstlicher Intelligenz lässt sich nicht mit klassischen Methoden nachweisen

© iStock.com/chinaface

Die Entscheidungsqualität von Künstlicher Intelligenz lässt sich jedoch bislang nicht mit formalen Methoden nachweisen. Umfangreiche Testdaten können zwar die Robustheit der KI für ebendiese Daten belegen, eine Verallgemeinerung auf allen möglichen Eingaben ist aber auch damit nicht möglich. Bereits kleinere Veränderungen in der Umgebung können beispielsweise die Bilderkennung erschweren. Ist ein Sensor verschmutzt oder herrschen ungünstige Wetterbedingungen, beeinflusst dies die Entscheidung einer KI stark und unvorhersehbar. Zwar gibt es Forschungsansätze, bei denen die KI ihre Verlässlichkeit selbst einschätzt, doch diese sind noch nicht ausgereift. Letztendlich kann KI nicht mit klassischen Methoden abgesichert werden.

Das Fraunhofer IKS macht Künstliche Intelligenz sicher und zuverlässig

Damit Künstliche Intelligenz dennoch in sicherheitskritischen Anwendungsbereichen wie Industrie 4.0, dem autonomen Fahren oder der Medizin eingesetzt werden kann, bietet Ihnen das Fraunhofer-Institut für Kognitive Systeme IKS wichtige Mechanismen für den Nachweis der Qualität und Sicherheit Ihrer KI-Lösung. Wir entwickeln für Sie

  • neue Verfahren, um die Erklärbarkeit, Transparenz und Robustheit neuronaler Netze zu verbessern
  • Methoden und Qualitäts-Metriken, um die Vertrauenswürdigkeit oder Fehlerwahrscheinlichkeit eines neuronalen Netzes zu bestimmen
  • KI-Monitore, welche die Laufzeiteigenschaften der Künstlichen Intelligenz absichern
  • Komponenten, welche die Verarbeitungskette automatisiert absichern, z.B. für die Perzeptionskette beim autonomen Fahren
  • Prüfkriterien für die Safety-Analyse Ihrer KI

Neben der Auftragsentwicklung bieten wir Ihnen verschiedene weitere Möglichkeiten der Zusammenarbeit, wie beispielsweise gemeinsame Innovationsteams, Studien und Potenzialanalysen. Hier finden Sie einer Übersicht unserer Kooperationsmöglichkeiten.

Safe Intelligence Blog

Das sind die neuesten Artikel auf unserem Blog im Bereich zuverlässige Künstliche Intelligenz:

 

Industrie 4.0 / 12.8.2021

Ein Turbo für Künstliche Intelligenz in der Produktion

Künstliche Intelligenz (KI) in der Industrie 4.0 hat viel Potenzial – jedoch existieren Technologiebarrieren, die den KI-Einsatz erschweren. Forscherinnen und Forscher des Fraunhofer IKS entwickeln ein Framework, das den Daten- und KI-Lebenszyklus unterstützt und optimiert. Dadurch wird die Wertschöpfung durch KI deutlich gesteigert.

 

KI in der Medizin / 29.7.2021

Online Tool checkt Verlässlichkeit von KI-Modellen

In modernen Perzeptionsanwendungen kommen aufgrund ihrer starken Performance vermehrt Modelle auf Basis Künstlicher Intelligenz zum Einsatz. Allerdings geht diese steigende Leistungsfähigkeit häufig auf Kosten der Nachvollziehbarkeit von Ergebnissen. Ein vom Fraunhofer-Institut für Kognitive Systeme IKS entwickeltes Online Tool schafft hier Abhilfe.

Künstliche Intelligenz:
Alle Blogartikel

Sie wollen mehr zur Forschung des Fraunhofer IKS rund um das Thema Künstliche Intelligenz erfahren? Dann schauen Sie auf unserem Blog vorbei. Hier finden Sie alle Blogartikel zu Künstlicher Intelligenz.

Vortrag: Einsatz von KI in sicherheitskritischen Systemen

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: http://www.youtube.com/t/privacy_at_youtube

Vortrag von Mario Trapp: »Safety first« Künstliche Intelligenz in sicherheitskritischen Anwendungen

Wie kann man Künstliche Intelligenz für praktische Anwendungen absichern? – Diese Frage beantwortet Mario Trapp in seinem Vortrag für das Bitkom AI Reserach Network. Er erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Fahrzeuge nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.