ADA Lovelace Center for Analytics, Data and Applications

Kompetenzzentrum für Data Analytics und Künstliche Intelligenz in der Industrie

Das Fraunhofer-Institut für Kognitive Systeme IKS beteiligt sich am ADA Lovelace Center for Analytics, Data and Applications. Dabei handelt es sich um eine Kooperationsplattform zu Data Analytics für Wissenschaft und Wirtschaft in Bayern. Ziel ist es, neue Data-Analytics-Verfahren und -Algorithmen in konkreten KI-Anwendungen zu entwickeln, die einen Mehrwert für die Industrie, datengetriebene Dienstleistungen sowie die Forschung gleichermaßen bieten.

Initiator des ADA Lovelace Centers ist das Fraunhofer IIS mit seiner Arbeitsgruppe für Supply Chain Services SCS. Neben dem Fraunhofer IKS sind die FAU Erlangen-Nürnberg, die LMU München sowie das Fraunhofer IISB Teil des wissenschaftlichen Netzwerks.  

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Dr. Gereon Weiß, Abteilungsleiter der Abteilung Self-Adaptive Systems am Fraunhofer IKS und Leiter der Anwendung »Absicherung autonomer Systeme« am ADA Lovelace Center, erläutert im Video, in welchem Bereich die Anwendung zum Einsatz kommt und welche Kompetenzen dabei einfließen.

Absicherung autonomer Systeme

Das Fraunhofer-Institut für Kognitive Systeme IKS forscht im Rahmen das ADA Lovelace Centers an der Absicherung autonomer Systeme, beispielsweise in den Bereichen Autonomes Fahren und Industrie 4.0. Damit autonome Systeme allgemein überhaupt funktionieren, benötigt man Machine-Learning-Verfahren, die komplexe und unbekannte Situationen erfassen und verarbeiten können. Für Systeme einer hohen Automatisierungsstufe (ab Autonomiestufe 3) verwendet man hierfür oft sogenannte Deep-Learning-Ansätze, bei denen Neuronale Netze zur Kontexterkennung eingesetzt werden. Damit können autonome Fahrzeuge beispielsweise Objekte erkennen, das Verkehrsgeschehen interpretieren und Fahranweisungen geben.

Safe AI: Neue Methoden zur Absicherung von KI-Verfahren

Neuronale Netze lassen sich jedoch nicht validieren. Auch ist bei Deep-Learning-Ansätzen vom außen betrachtet nicht nachvollziehbar, warum ein Neuronales Netz bestimmte Entscheidungen trifft. In sicherheitskritischen Systemen wie autonomen Fahrzeugen oder Fahrerlosen Transportsystemen in der Industrie können diese Verfahren daher aktuell nicht bedenkenlos eingesetzt werden.

Das Fraunhofer IKS erforscht deswegen neue Methoden, mit denen man KI-Verfahren für den Einsatz in hochperformanten eingebetteten Systemplattformen ausreichend absichern kann. Dazu entwickelt es Mechanismen, die nachweisbar alle Eigenschaften überwachen, die zur Sicherheit (engl. Safety) des autonomen Systems notwendig sind.

Zudem erarbeiten die Wissenschaftlerinnen und Wissenschaftler ein flexibles Absicherungskonzept, das für verschiedene Lernverfahren und unterschiedliche Sensor-Ausstattungen angewendet werden kann. Damit können beispielsweise auch Informationen, die durch maschinelle Lernverfahren wie Explainable AI entstehen und teilweise nachvollziehbar sind, in die Absicherung einfließen.

Außerdem untersucht das Fraunhofer IKS geeignete KI-Methoden für die Überwachung selbst. Sie können als redundante Pfade genutzt werden oder dafür, nicht nachvollziehbare maschinelle Lernverfahren zu kontrollieren.

 

Machine Learning für die zuverlässige Perzeption autonomer Systeme

Für autonome Systeme ist eine zuverlässige Wahrnehmung (Perzeption) der Umgebung entscheidend. Zum Beispiel beim autonomen Fahren. Doch die dafür verwendeten Methoden des Machine Learning sind nicht von Natur aus vertrauenswürdig. Daher müssen andere Maßnahmen ergriffen werden, um Machine Learning in sicherheitskritischen Systemen einzusetzen. Dieses Video veranschaulicht den Forschungsansatz des Fraunhofer IKS im Rahmen des ADA Lovelace Centers, um eine zuverlässigere Perzeption von autonomen Systemen zu erreichen.

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Enge Zusammenarbeit zwischen Wissenschaft und Industrie

Unternehmen unterschiedlicher Branchen mit Forschungsbedarf im Bereich Data Analytics können mit dem ADA Lovelace Center kooperieren. Neben der Absicherung autonomer Systeme deckt es verschiedene weitere Anwendungsfelder im Bereich Künstliche Intelligenz ab. Dazu zählen beispielsweise Fahrerassistenzsysteme im Schienenverkehr, intelligente Leistungselektronik für smarte Industrie 4.0-Anwendungen oder die effiziente Suche und Darstellung von Trackingdaten für die Analyse von Spielszenen im Sport.

Bei einer Kooperation kommen Firmen mit führenden KI-Forscherinnen und Forschern zusammen und arbeiten gemeinsam an konkreten Fragestellungen der Industrie. So erforschen und entwickeln beteiligte Forschungseinrichtungen und Unternehmen derzeit unter anderem Lösungen für Anwendungsfälle aus den Bereichen Logistik, Automotive und Medizintechnik. Hierfür bilden die Wissenschaftlerinnen und Wissenschaftler gemeinsam mit den Mitarbeitenden der Firmen interdisziplinäre und agile Entwicklerteams auf Zeit. Im Rahmen dieser sogenannten Joint Labs können die Akteure dadurch gegenseitig von der Erfahrung und dem Wissen der jeweils anderen profitieren. Zudem lassen sich die Forschungsergebnisse möglichst schnell in die praktische Anwendung überführen. Die eigens für das ADA Lovelace Center geschaffenen Coworking Spaces von Fraunhofer bieten dafür eine geeignete Infrastruktur.

 

 

Das Projekt wird durch das Bayerische Staatsministerium für Wirtschaft, Landesentwicklung und Energie (StMWi) gefördert.

 

Zuverlässige Künstliche Intelligenz

Das Fraunhofer-Institut für Kognitive Systeme IKS macht KI vertrauenswürdig und zuverlässig.

 

Safety-Architekturen für KI-basierte Systeme

Das Fraunhofer IKS bietet eine umfassende Safety-Architektur für Künstliche Intelligenz.

 

Künstliche Intelligenz / 30.1.2020

Uncertainties, auf die man sich verlassen kann

Komplexe Verfahren des Machine Learning (ML) stellen Forschende vor ein Problem: Das Ausschließen von Fehlern vor der Inbetriebnahme autonomer Systeme sowie die Erkennung von Fehlern zur Laufzeit sind aufwendig und anspruchsvoll. Dies schränkt aktuell den Einsatz von ML in sicherheitskritischen Systemen ein und erfordert neue Ansätze, um zukünftig auch hier von den ML-Vorteilen zu profitieren.