Zuverlässige Künstliche Intelligenz

Künstliche Intelligenz: Sicherheit für Industrie, Medizin und autonomes Fahren erfordert zuverlässige Entscheidungen

© iStock.com/chinaface

KI-Lösungen können die Effizienz in der Produktion, Logistik, Materialprüfung oder Medizin erheblich steigern. Andere Technologien wie die Überwachung der Perzeption für das autonome Fahren macht Künstliche Intelligenz erst möglich. Doch selbst kleine Fehler der KI können in diesen Branchen teure Stillstände oder lebensbedrohliche Situationen hervorrufen. Dann gefährdet Künstliche Intelligenz die Sicherheit des Systems (Safety). Damit Unternehmen aus der Industrie, Medizintechnik oder Automobilwirtschaft dennoch KI einsetzen können, müssen sie nachweisen, dass die Künstliche Intelligenz sichere Entscheidungen trifft.

 

Sicherheit von Künstlicher Intelligenz lässt sich nicht mit klassischen Methoden nachweisen

Die Entscheidungsqualität von Künstlicher Intelligenz lässt sich jedoch bislang nicht mit formalen Methoden nachweisen. Umfangreiche Testdaten können zwar die Robustheit der KI für ebendiese Daten belegen, eine Verallgemeinerung auf allen möglichen Eingaben ist aber auch damit nicht möglich. Bereits kleinere Veränderungen in der Umgebung können beispielsweise die Bilderkennung erschweren. Ist ein Sensor verschmutzt oder herrschen ungünstige Wetterbedingungen, beeinflusst dies die Entscheidung einer KI stark und unvorhersehbar. Zwar gibt es Forschungsansätze, bei denen die KI ihre Verlässlichkeit selbst einschätzt, doch diese sind noch nicht ausgereift. Letztendlich kann KI nicht mit klassischen Methoden abgesichert werden.

Das Fraunhofer IKS macht Künstliche Intelligenz sicher und zuverlässig

Damit Künstliche Intelligenz dennoch in sicherheitskritischen Anwendungsbereichen wie Industrie 4.0, dem autonomen Fahren oder der Medizin eingesetzt werden kann, bietet Ihnen das Fraunhofer-Institut für Kognitive Systeme IKS wichtige Mechanismen für den Nachweis der Qualität und Sicherheit Ihrer KI-Lösung. Wir entwickeln für Sie

  • neue Verfahren, um die Erklärbarkeit, Transparenz und Robustheit neuronaler Netze zu verbessern
  • Methoden und Qualitäts-Metriken, um die Vertrauenswürdigkeit oder Fehlerwahrscheinlichkeit eines neuronalen Netzes zu bestimmen
  • KI-Monitore, welche die Laufzeiteigenschaften der Künstlichen Intelligenz absichern
  • Komponenten, welche die Verarbeitungskette automatisiert absichern, z.B. für die Perzeptionskette beim autonomen Fahren
  • Prüfkriterien für die Safety-Analyse Ihrer KI

Neben der Auftragsentwicklung bieten wir Ihnen verschiedene weitere Möglichkeiten der Zusammenarbeit, wie beispielsweise gemeinsame Innovationsteams, Studien und Potenzialanalysen. Hier finden Sie einer Übersicht unserer Kooperationsmöglichkeiten.

Safe Intelligence Magazin

Das sind die neuesten Artikel auf unserem Blog im Bereich zuverlässige Künstliche Intelligenz:

 

8.10.2020

Uncertainty Estimation in Object Detection – a mission-criticle task

Deep Neural Networks have proven their potential. This applies above all to their use in the laboratory. Their performance in real-world applications leaves a lot to be desired. One major problem is the estimation of uncertainty. A closer look at methods that meet this challenge.

 

18.6.2020

Bei Deep Learning auf Nummer sicher gehen

Erst der Einsatz von Machine-Learning, insbesondere von Deep Learning, ermöglicht viele hochkomplexe Anwendungen, wie etwa das autonome Fahren. Was die Absicherung solcher Systeme betrifft, gilt es aber auch, neue Herausforderungen zu meistern. Ein Überblick.

 

7.5.2020

Wo Künstliche Intelligenz heute schon sicherheitskritische Entscheidungen trifft

Künstliche Intelligenz (KI) wird in Zukunft großen Einfluss auf unser Leben nehmen. Und schon jetzt hat KI in vielen Bereichen Einzug gehalten – auch dort, wo es um die Sicherheit von Menschen geht.

Vortrag: Einsatz von KI in sicherheitskritischen Systemen

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: http://www.youtube.com/t/privacy_at_youtube

Vortrag von Mario Trapp: »Safety first« Künstliche Intelligenz in sicherheitskritischen Anwendungen

Wie kann man Künstliche Intelligenz für praktische Anwendungen absichern? – Diese Frage beantwortet Mario Trapp in seinem Vortrag für das Bitkom AI Reserach Network. Er erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Fahrzeuge nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.