Kognitive Systeme

Mit Kognitiven Systemen in eine intelligente Zukunft

Kognitive Systeme sind schon heute aus vielen Bereichen nicht mehr wegzudenken und werden in Zukunft immer mehr Industrie- und Wirtschaftszweige maßgeblich beeinflussen. Laut Berechnungen der International Data Corporation (IDC) werden bis zum Jahr 2022 77,6 Milliarden US-Dollar für Kognitive Systeme investiert werden. Damit sind sie die Basis für Zukunftstechnologien wie

Was sind Kognitive Systeme? – Eine Definition

Das Fraunhofer-Institut für Kognitive Systeme IKS versteht unter Kognitiven Systemen technische Systeme, die in der Lage sind für menschliche Aufgabenstellungen selbstständig Lösungen und Strategien zu entwickeln. Dafür sind sie mit kognitiven Fähigkeiten zum Kontextverstehen, zur Interaktion, Adaption und Lernfähigkeit ausgestattet. Kognitive Systeme können Verfahren der Künstlichen Intelligenz (KI) wie maschinelles Lernen, neuronale Netze und Deep Learning verwenden.

Kognitive Systeme verstehen, lernen und treffen Entscheidungen

Dabei orientieren sich Kognitive Systeme an menschlichen Fähigkeiten: Sie können Dinge wahrnehmen, verstehen, Schlüsse ziehen und lernen. Außerdem können sie auf unerwartete Ereignisse sicher reagieren. Als Input für Kognitive Systeme dienen häufig größere, unstrukturierte Datenmengen wie Sensordaten, die oftmals unvollständig oder ungenau und damit unsicher sind. Auf Basis dieser Daten lernt das Kognitive System und leitet Entscheidungen ab. Zugleich hat das System den eigenen Kontext wie Umwelteinflüsse im Blick, interagiert mit der Umgebung, zieht daraus Schlussfolgerungen und optimiert Handlungen.

Abgrenzung von Künstlicher Intelligenz (KI) und Kognitiven Systemen

Kognitive Systeme sind aber nicht gleichzusetzen mit Künstlicher Intelligenz (KI). Sie sind künstliche intelligente Systeme, die auf verschiedene Methoden aus dem Bereich der Künstlichen Intelligenz (KI) zurückgreifen können, aber auch andere Ansätze beinhalten können. Das Fraunhofer-Institut für Kognitive Systeme IKS betrachtet Kognitive Systeme als ganzheitliche intelligente Softwaresysteme mit flexiblen Softwarearchitekturen, für die viele Methoden und Verfahren des System- und Safety-Engineerings zusammengefasst werden.

Kognitive Systeme im Verbund

Kognitive Systeme werden nicht nur einzeln eingesetzt. Viele Kognitive Systeme müssen in einem übergeordneten System, einem sogenannten System of Systems, gemeinsam funktionieren. Hier liegt ein Schwerpunkt des Fraunhofer-Institut für Kognitive Systeme IKS, dessen Expertise vor allem in dem Bereich des Systems Engineerings vernetzter intelligenter Systeme liegt. Das Fraunhofer IKS erforscht hierbei, wie die einzelnen Systeme auch im Verbund sicher und optimal miteinander interagieren können.

Wo werden Kognitive Systeme eingesetzt?

Kognitive Systeme können in vielen Bereichen eingesetzt werden. Beispiele sind Sprachassistenten oder die Analyse großer Datenmengen. Das Fraunhofer-Institut für Kognitive Systeme IKS legt seinen Fokus allerdings auf Kognitive Systeme, die auch sicherheitskritische Funktionen übernehmen. Dabei haben Kognitive Systeme vor allem dann einen großen Nutzen, wenn klassische Herangehensweisen und Verfahren nicht mehr greifen. Für die erfolgreiche Mensch-Roboter-Kollaboration soll der Industrieroboter beispielsweise nicht einfach stehenbleiben, wenn ihm ein Mensch zu nahekommt. Er soll dem Menschen ausweichen und im Idealfall weiterarbeiten.

Damit Kognitive Systeme auch in sicherheitskritischen Bereichen wie dem autonomen Fahren oder der Industrie 4.0 Anwendung finden können, müssen sie drei Kriterien erfüllen:

  • Sie müssen sicher im Sinne von »Safety« sein.
  • Sie müssen zuverlässig und stets verfügbar sein (»reliable«).
  • Und gleichzeitig müssen sie zu vertretbaren Kosten entwickelt und eingesetzt werden.

Beispiel: Das autonome Fahrzeug als Kognitives System

Am Beispiel des autonomen Fahrens lassen sich die drei Kriterien veranschaulichen:

Das selbstfahrende Auto muss sicher im Straßenverkehr unterwegs sein und darf keine Unfälle bauen. Gleichzeitig muss es aber auch zuverlässig verfügbar, das heißt nutzbar, bleiben. Ein autonomes Fahrzeug, das in allen unklaren Situationen nicht fährt, sondern am Straßenrand hält, wäre zwar sicher, aber nicht zuverlässig.

Hinzu kommt noch die Frage nach den Kosten: Autonome Fahrzeuge müssen über Millionen von Testkilometern getestet und dabei überwacht werden. Dieses Vorgehen wird aktuell vor allem in den USA vorangetrieben, um möglichst viel Erfahrung im Betrieb zu gewinnen. Die Tests sind jedoch schon alleine aufgrund der Anzahl der Testkilometer extrem aufwändig und kosten viel Zeit und Geld. So muss zum Beispiel auch gewährleistet werden, dass das Auto in allen möglichen Szenarien getestet wurde, beispielsweise bei unterschiedlichen Lichteinfällen, Wetterbedingungen oder Umgebungssituationen. Außerdem muss jede einzelne Veränderung der Software wie Updates oder neue Versionen wieder mittels umfangreicher Testfahrten geprüft werden. Dieses Vorgehen alleine wird nicht zum Erfolg autonomer Fahrzeuge führen.

Daher müssen KI-basierte Methoden und Kognitive Systeme durch eine entsprechende System- und Softwarearchitektur abgesichert werden. Diese bildet dann einen geschützten Rahmen, sodass auch falsche Entscheidungen der Künstlichen Intelligenz (KI) keinen Schaden verursachen können.

Woran forscht das Fraunhofer IKS im Bereich Kognitive Systeme?

Die wichtigste Eigenschaft von Kognitiven Systemen ist, dass sie insbesondere in sicherheitskritischen Bereichen auf unerwartete Ereignisse und Veränderungen sowie unbekannte Bedingungen sicher und optimal reagieren. Das selbstfahrende Auto erfasst ein Objekt auf der Straße, das es nicht identifizieren kann. Nun muss das Auto dennoch verlässlich reagieren, gegebenenfalls bremsen und dem Hindernis ausweichen. Wenn ein System trotz solcher unerwarteten und unbekannten Herausforderungen verlässlich reagieren kann, bezeichnet das Fraunhofer-Institut für Kognitive Systeme IKS dies in Anlehnung an Jean-Claude Laprie als »Resilienz«.

Das Fraunhofer-Institut für Kognitive Systeme IKS arbeitet mit seiner Forschung daran, dass Kognitive Systeme auch für die Übernahme sicherheitskritischer Funktionen eingesetzt werden können. Bisher ist dies häufig nicht möglich, da gerade die Nachweisbarkeit der Sicherheit von Kognitiven Systemen eine Herausforderung darstellt. Das Fraunhofer IKS arbeitet deswegen an drei Aspekten um Kognitive Systeme für sicherheitskritische Anwendungen einsatzfähig zu machen:

  • Kognitive Vernetzung
  • Kognitive Architektur
  • Kognitives Verhalten

Kognitive Vernetzung – im Kollektiv intelligent

© iStock.com/Justinreznick

Die besondere Stärke von Kognitiven Systemen liegt darin, dass Teilsysteme sich zu einem großen Kognitiven System formieren können, einem sogenannten Cyber-Physical System of Systems (CPSoS). Einzelne Teilsysteme kooperieren dabei vorübergehend oder dauerhaft, um gemeinsam eine Aufgabe zu erfüllen. Kooperierende Transportsysteme können beispielsweise ein gemeinsames Manöver durchführen, um eine schwere Last zu bewegen. Dafür teilen die autonomen Transportsysteme ihre Perzeption, geben Informationen weiter und stimmen sich ab. Ist die Aufgabe bewältigt, löst sich das Kollektiv wieder auf. Um die Resilienz solcher Systeme zu gewährleisten, forscht das Fraunhofer-Institut für Kognitive Systeme IKS zum Beispiel daran, sichere Fallback-Szenarien für das kollektive Verhalten zu integrieren. Das einzelne System muss in der Lage sein, sicherheitskritische Funktionen auch alleine zu übernehmen, wenn die Koordination oder Kommunikation mit dem Gesamtsystem nicht funktioniert. Darüber hinaus soll das Kollektiv optimal und performant seine Aufgaben erledigen, ohne die Sicherheit zu gefährden. Dafür sind flexible und adaptive Architekturen von Kognitiven Systemen eine notwendige Voraussetzung.

Kognitive Architektur – flexible und anpassbare Architekturen

Weil Kognitive Systeme häufig in einem Gesamtsystem zusammenarbeiten müssen, sind flexible und anpassbare Softwarearchitekturen ein weiterer Forschungsaspekt des Fraunhofer-Instituts für Kognitive Systeme IKS. In einem großen Gesamtsystem kommen immer wieder neue Dienste und Technologien hinzu oder andere fallen weg. Kognitive Systeme müssen damit umgehen können. Auch im autonomen Fahrzeug können Funktionen und Systeme wegfallen, beispielsweise, weil ein Sensor für die Abstandsmessung gerade verdeckt wird. Hier müssen die Softwarearchitekturen greifen und alternative sichere Verhaltensweisen für das selbstfahrende Auto vorschlagen, bis der Abstandssensor wieder funktionsfähig ist. Ziel des Fraunhofer IKS sind serviceorientierte Architekturen, die sich an die aktuellen Anforderungen flexibel anpassen können und die fail-operational sind, also sogar im Fehlerfall weiter funktionieren.

© iStock.com/gustavofrazao

Kognitives Verhalten – sichere Künstliche Intelligenz

© iStock.com/sumos

Aber nicht nur die Systemarchitektur muss verlässlich funktionieren, auch das Herz des Kognitiven Systems, also gegebenenfalls die Künstliche Intelligenz (KI), muss sicher im Sinne von »safe« sein. Deswegen forscht das Fraunhofer-Institut für Kognitive Systeme IKS daran, wie Künstliche Intelligenz so entwickelt werden kann, dass sie in jedem Fall sicher ist, und spürt Schwachstellen der Künstlichen Intelligenz auf. Ein Ziel ist es, die Künstliche Intelligenz gleich ausreichend robust zu entwickeln. Des Weiteren gilt es, die Unsicherheiten der KI in der jeweiligen Situation zu bestimmen, um adäquat darauf reagieren zu können. Zudem werden auch gezielte Test- und Verifikationsmaßnahmen für die Absicherung der KI untersucht. Dabei stellt sich die Frage: Wann ist mein System sicher genug? Um diese Frage zu beantworten, arbeitet das Fraunhofer IKS an einer Methodik zur Systematisierung der Schwachstellen eines Kognitiven Systems. Mit dieser Systematik wissen Entwicklerinnen und Entwickler, welche Situationen bereits ausreichend berücksichtigt und getestet wurden und was die Künstliche Intelligenz noch nicht gelernt hat.