Sichere LLM-Anwendungen
Generative Künstliche Intelligenz (GenAI) eröffnet neue Möglichkeiten zur Automatisierung von komplexen Aufgaben. So erobern zum Beispiel Chatbots und KI-Agenten seit einigen Jahren das Internet, indem sie Suchmaschinen ersetzen, E-Mails schreiben oder Bücher zusammenfassen. Die zugrundeliegenden Large Language Models (LLMs) können natürlichsprachlichen Input, ebenso wie Bilder und Dokumente effizient verarbeiten und reproduzieren. Studien schätzen, dass generative KI in der Wirtschaft Effizienzgewinne von Milliarden Euro freisetzen kann [1].
Insbesondere für sicherheitskritische Anwendungen sind Zuverlässigkeit und Robustheit eine wichtige Voraussetzung dafür, dass eine Technologie dauerhaft Effizienzsteigerungen in der Praxis erzielen kann. Die statistische Natur und die schwer interpretierbaren Lernprozesse von GenAI machen dies jedoch zu einer echten Herausforderung, da es grundsätzlich keine Garantie für korrekte oder hilfreiche Ergebnisse gibt (»Halluzinationen«). Infolgedessen wächst die Kluft zwischen technologisch möglichen und nachweisbar sicheren GenAI-Anwendungen weiter [2].
Fraunhofer-Institut für Kognitive Systeme IKS