Virtuelles Event  /  01. Januar 2021  -  31. Januar 2021

AI Safety Workshop: Adrian Schwaiger stellt sein neues Paper zu Deep Learning vor

Adrian Schwaiger vom Fraunhofer-Institut für Kognitive Systeme IKS stellt sein neues Paper auf dem AI Safety Workshop im Januar 2021 vor. Der Workshop sucht nach neuen Ideen für das Safety Engineering und legt den Fokus auf strategische, ethische und politische Aspekte für sicherheitskritische KI-basierte Systeme. Aufgrund der aktuellen Situation ist noch nicht final geklärt, ob der Workshop virtuell oder vor Ort in Japan stattfinden wird.

In ihrem Paper »Is Uncertainty Quantification in Deep Learning Sufficient for Out-of-Distribution Detection?« vergleichen die IKS-Forscherinnen und -Forscher hochmoderne Unsicherheitsquantifizierungsmethoden für tiefe neuronale Netze hinsichtlich ihrer Fähigkeit, neue Inputs zu erkennen.  

 

Vortrag auf dem AI Safety Workshop
Adrian Schwaiger
»Is Uncertainty Quantification in Deep Learning Sufficient for Out-of-Distribution Detection?«
Japan / virtuell