Risiken durch Unsicherheiten müssen abgesichert werden. Doch häufig ist unklar, wie eine normkonforme Absicherung aussieht. Das erschwert und verzögert die Planung, Freigabe und Zulassung der Systeme.
Klassische Testmethoden und Vergangenheitsdaten reichen außerdem oft nicht aus, um das Verhalten KI-basierter Funktionen in neuen oder veränderten Domänen verlässlich abzuschätzen. Unterschiedliche Stakeholder interpretieren Anforderungen aus Standards und dem EU AI Act unterschiedlich. So fehlt eine gemeinsame Linie, wie mit Unsicherheit konkret umzugehen ist.
Darüber hinaus bleiben viele Unsicherheiten im Alltag unerkannt (sogenannte »unknown unknowns«) und werden damit auch nicht in Risiko-, Safety- oder Betriebsentscheidungen berücksichtigt.
Unsicherheiten müssen deshalb sowohl in der Design- und Entwicklungsphase als auch zur Laufzeit (bspw. wegen neuer Situationen, Verhaltensweisen, Umgebungen) systematisch adressiert, überwacht und – wo möglich – kontinuierlich reduziert werden.
Viele Unternehmen stehen dabei vor ähnlichen Fragen:
- Welche Unsicherheiten hat mein System – und welche davon sind im Sinne bestehender Standards wirklich relevant?
- Wie erreiche ich ein gemeinsames Verständnis zwischen unterschiedlichen Stakeholdern darüber, wo Unsicherheit entsteht und welche Annahmen wir heute stillschweigend treffen?
- Wie setze ich die Normanforderungen zum Umgang mit Unsicherheit praktisch um, statt sie nur abstrakt zu kennen?
- Wie sehr kann ich meinem KI-basierten System vertrauen – und wie begründe ich dieses Vertrauen gegenüber internen Stakeholdern, Auditoren und Behörden?