Künstliche Intelligenz: Forschung am Fraunhofer IKS

Künstliche Intelligenz: Forschung und Entwicklung in Deutschland

Auf der KI-Landkarte des Bundesministeriums für Bild und Forschung (BMBF) werden aktuell über 90 Institutionen aufgeführt, die sich in Deutschland mit Künstlicher Intelligenz und der dazugehörigen Forschung befassen, darunter auch das Fraunhofer-Institut für Kognitive Systeme IKS. Die Plattform, die auch in Kooperation mit dem Bundesministerium für Wirtschaft und Energie (BMWi) entstanden ist, hat das Ziel, sichtbar zu machen, wo Künstliche Intelligenz in Deutschland heute und in Zukunft zum Einsatz kommt.

Die Landkarte verdeutlicht die herausragende Stellung, die Forschung zu Künstlicher Intelligenz in Deutschland hat. Nicht umsonst präsentierte die Bundesregierung im November 2018 eine nationale »Strategie Künstliche Intelligenz«. Ziel ist »KI made in Germany« zu einem internationalen Markenzeichen für moderne, sichere und gemeinwohlorientierte KI-Anwendungen zu etablieren.

Auch auf Landesebene gibt es in Deutschland zahlreiche KI-Strategien, um die Forschung und Entwicklung von Künstlicher Intelligenz zu stärken. In Bayern wurde mit der Strategie »Bayern Digital« und der »Hightech Agenda Bayern« ein umfangreiches Paket geschnürt, um Forschung zu Künstlicher Intelligenz zu stärken. Dafür wird unter anderem ein landesweites KI-Forschungsnetz aufgebaut und die Stadt München zu einem KI-Zentrum etabliert. Hier ist auch das Fraunhofer IKS involviert, das im Rahmen des bayernweiten KI-Netzwerkes am Standort München etabliert wird. Geplant ist hierbei ein personeller Aufwuchs auf ca. 200 Mitarbeiterinnen und Mitarbeiter, sowie der Neubau des Institutsgebäudes auf dem Forschungscampus in Garching: Aufbau des Fraunhofer-Instituts für Kognitive Systeme IKS

Künstliche Intelligenz: Aktueller Forschungsstand

Künstliche Intelligenz als Teilgebiet der Informatik ist ein sehr großes Forschungsfeld. Allein in Deutschland forschen zahlreiche Institutionen und Unternehmen an Künstlicher Intelligenz und gerade Länder wie die USA und China investieren Unsummen in die Entwicklung von KI-basierten Anwendungen.

Gerade die unterschiedlichen Lernverfahren von Künstlicher Intelligenz sind dabei aktuell von großem Interesse für die Forschung:

  • Machine Learning
    • Supervised Machine Learning
    • Unsupervised Machine Learning
    • Reinforcement Learning
  • Deep Learning

KI-Forschung am Fraunhofer IKS in München

Das Fraunhofer IKS in München arbeitet an unterschiedlichen Forschungsfragen im Bereich Künstliche Intelligenz. Besonders im Vordergrund steht dabei die Absicherung von Künstlicher Intelligenz und die Frage, wie Künstliche Intelligenz zuverlässig wird. Gerade für den Einsatz in sicherheitskritischen Systemen wie autonomen Fahrzeugen, bei der Mensch-Roboter-Kollaboration oder in der Medizintechnik ist das von herausragender Bedeutung.

US-Firmen beantworten diese Forschungsfragen häufig mit datengetriebenen Methoden. Die Software, beispielsweise in einem autonomen Fahrzeug, soll dort primär durch Feldtests und Training der KI abgesichert werden. Deswegen fahren autonome Fahrzeuge dort tausende von Testkilometern. Das Problem ist jedoch: Diese Ansätze funktionieren nur eingeschränkt und hängen stark von den Testdaten ab. In den letzten Jahren ist es dabei schon mehrfach zu schweren Unfällen gekommen, bei denen Menschen verletzt oder getötet wurden. Außerdem muss bei jedem kleinen Software-Update das komplette System erneut getestet werden.

Um Künstliche Intelligenz effektiv und kostengünstig abzusichern, müssen deswegen zwei Welten zusammengebraucht werden: Die Künstliche Intelligenz und die Sicherheit (Safety) des klassischen Engineerings. Hieran arbeitet das Fraunhofer IKS in München.

Dabei liegt der Schwerpunkt insbesondere auf drei Forschungsfragen:

  • Wie kann Künstliche Intelligenz nachvollziehbar werden?
    Das Stichwort hierfür heißt »Explainable AI«. Das Fraunhofer IKS forscht daran, Unsicherheiten von Künstlicher Intelligenz quantifizierbar zu machen, um das Verhalten der KI sinnvoll bewerten zu können. Denn nur erklärbare KI ist auch sicher. 
  • Wie kann Künstliche Intelligenz überwacht werden?
    Dafür entwickelt das Fraunhofer IKS eine erweitere Softwarearchitektur, mit der die Künstliche Intelligenz überwacht und die getroffenen Entscheidungen auf Plausibilität überprüft werden. Gerade hier kommen klassische Methoden des Safety Engineerings ins Spiel. 
  • Wie kann Künstliche Intelligenz trotz hoher Sicherheitsanforderungen dynamisch bleiben?
    Geht eine Software immer vom Worst-Case-Szenario aus, dann ist sie kaum noch flexibel. Ein autonomes Auto, das beispielsweise bei der kleinsten Unklarheit stehen bleibt, ist nicht nutzbar. Gleichzeitig darf es auf keinen Fall eine kritische Situation falsch einschätzen. Um dieses Problem zu lösen, arbeitet das Fraunhofer IKS an einem dynamischen Safety-Management. Es nutzt die Vorteile der schnellen Datenverarbeitung durch Machine Learning und fängt mögliche Fehlentscheidungen ab. 

Künstliche Intelligenz in der Forschung

Sie wollen mehr über die KI-Forschung am Fraunhofer IKS erfahren? Dann schauen Sie auch gerne auf unserem Blog vorbei. Hier geben Ihnen unsere Wissenschaftlerinnen und Wissenschaftler Einblicke und Hintergrundinformationen in ihre Arbeit:

 

Artificial Intelligence / 25.6.2020

Why Safety Matters

Machine learning means a disruptive challenge for safety assurance. It’s therefore no surprise that AI safety has gained much more attention over the past few months. This article focuses on the basic understanding of what safety actually means. It highlights why it is so important to understand that safe AI has less to do with AI itself and much more to do with safety engineering.

 

Künstliche Intelligenz / 18.6.2020

Bei Deep Learning auf Nummer sicher gehen

Erst der Einsatz von Machine-Learning, insbesondere von Deep Learning, ermöglicht viele hochkomplexe Anwendungen, wie etwa das autonome Fahren. Was die Absicherung solcher Systeme betrifft, gilt es aber auch, neue Herausforderungen zu meistern. Ein Überblick.

 

Künstliche Intelligenz / 7.5.2020

Wo Künstliche Intelligenz heute schon sicherheitskritische Entscheidungen trifft

Künstliche Intelligenz (KI) wird in Zukunft großen Einfluss auf unser Leben nehmen. Und schon jetzt hat KI in vielen Bereichen Einzug gehalten – auch dort, wo es um die Sicherheit von Menschen geht.

 

Autonomes Fahren / 30.4.2020

Uncovering difficult situations for autonomous driving systems

Today, autonomous vehicles function reasonably well in test situations since the conditions are severely restricted and thus easy to manage. A key issue however is how to design autonomous vehicles so that they operate dependably even in complex and previously unknown situations. A solution from Fraunhofer IKS is helping to uncover and predict such difficult situations.

 

Unsicherheitsbestimmung, Teil 2 / 23.3.2020

Der KI das Zweifeln beibringen: So geht‘s

Bei autonomen Systemen oder in der Medizintechnik ist es nötig, die Unsicherheit von Verfahren des Machine Learning (ML) zuverlässig zu bestimmen. Deswegen vergleichen wir vier State-of-the-art-Methoden für die Quantifizierung der Unsicherheit tiefer neuronaler Netze (Deep Neural Network, DNN) im Kontext sicherheitskritischer Systeme – damit die KI lernt, wann Zweifel angebracht sind.

 

Safety / 9.3.2020

Die Vier-plus-Eins-Sicherheits-Architektur

Fehler in autonomen Fahrzeugen gefährden Menschen und können schnell zu Unfällen mit schweren Verletzungen und sogar zu Verkehrstoten führen. Entsprechend müssen gerade auch für Kognitive Systeme und die darin enthaltene Künstliche Intelligenz (KI) stringente Sicherheitsnachweise erbracht werden.

 

Auszeichnung / 27.2.2020

SafeAI: Best Paper Award

Für ihr Paper »Benchmarking Uncertainty Estimation Methods for Deep Learning With Safety-Related Metrics« haben Adrian Schaiger, Maximilian Henne, Karsten Roscher und Gereon Weiß vom Fraunhofer IKS den Best Paper Award des SafeAI Workshops in New York bekommen.

Künstliche Intelligenz:
Alle Blogartikel

Sie wollen mehr zur Forschung des Fraunhofer IKS rund um das Thema Künstliche Intelligenz erfahren? Dann schauen Sie auf unserem Blog vorbei. Hier finden Sie alle Blogartikel zu Künstlicher Intelligenz.

Publikationen des Fraunhofer IKS

2021 Schwaiger, Franziska; Henne, Maximilian; Küppers, Fabian; Schmoeller Roza, Felippe; Roscher, Karsten; Haselhoff, Anselm:
From Black-box to White-box: Examining Confidence Calibration under different Conditions
2020 Schmoeller Roza, Felippe; Henne, Maximilian; Roscher, Karsten; Günnemann, Stephan:
Assessing Box Merging Strategies and Uncertainty Estimation Methods in Multimodel Object Detection
2020 Schwaiger, Adrian; Sinhamahapatra, Poulami; Gansloser, Jens; Roscher, Karsten:
Is Uncertainty Quantification in Deep Learning Sufficient for Out-of-Distribution Detection?
2020 Henne, Maximilian; Schwaiger, Adrian; Roscher, Karsten; Weiß, Gereon:
Benchmarking Uncertainty Estimation Methods for Deep Learning with Safety-Related Metrics
2020 Schwaiger, Adrian:
Machine Learning in sicherheitskritischen Systemen
2020 Schleiß, Philipp; Kurzidem, Iwo:
Methoden zur Absicherung von KI-basierten Perzeptionsarchitekturen in autonomen Systemen
2019 Henne, Maximilian; Schwaiger, Adrian; Weiß, Gereon:
Managing Uncertainty of AI-based Perception for Autonomous Systems
2019 Trapp, Mario; Weiß, Gereon:
Towards Dynamic Safety Management for Autonomous Systems
2018 Weiß, Gereon; Schleiß, Philipp; Schneider, Daniel; Trapp, Mario:
Towards integrating undependable self-adaptive systems in safety-critical environments
2018 Trapp, Mario; Weiß, Gereon; Schneider, Daniel:
Towards safety-awareness and dynamic safety management