Molina Ramirez, AlejandroHölldobler, Steffen2022-12-022022-12-022022978-3-88579-980-1https://dl.gi.de/handle/20.500.12116/39844Viele Modelle des Maschinellen Lernens konzentrieren sich darauf, die größtmögliche Genauigkeit zu bieten. Allerdings sind diese Modelle meist Blackboxen, die schwer zu untersuchen sind. Es handelt sich oft um diskriminative Modelle, die Ergebnisse anhand von Trainingsdaten erzielen, aber kein eigenes Modell für die Daten entwickeln. Wir wollen jedoch wissen, ob sich die aktuellen Daten, die das Modell verarbeitet, mit den Trainingsdaten decken. Mit anderen Worten: Ist es qualifiziert genug, Entscheidungen zu treffen und “weiß es, wovon es redet”? Diese Dissertation [Mo21] konzentriert sich auf tiefe generative Modelle, die auf probabilistischen Schaltkreisen basieren; die es uns erlauben, eine breite Spanne von normalisierten Wahrscheinlichkeitsanfragen in einer garantierten Rechenzeit zu beantworten. Diese generativen Modelle können dann auf Bias überprüft werden, einschließlich, wie sicher sie sich einer bestimmten Antwort sind, weil sie “wissen, wenn sie es nicht wissen”.deTiefe Netzwerke, die wissen, wenn sie etwas nicht wissenText/Conference Paper