Logo des Repositoriums
 
Konferenzbeitrag

Tiefe Netzwerke, die wissen, wenn sie etwas nicht wissen

Lade...
Vorschaubild

Volltext URI

Dokumententyp

Text/Conference Paper

Zusatzinformation

Datum

2022

Zeitschriftentitel

ISSN der Zeitschrift

Bandtitel

Quelle

Verlag

Köllen Druck + Verlag GmbH

Zusammenfassung

Viele Modelle des Maschinellen Lernens konzentrieren sich darauf, die größtmögliche Genauigkeit zu bieten. Allerdings sind diese Modelle meist Blackboxen, die schwer zu untersuchen sind. Es handelt sich oft um diskriminative Modelle, die Ergebnisse anhand von Trainingsdaten erzielen, aber kein eigenes Modell für die Daten entwickeln. Wir wollen jedoch wissen, ob sich die aktuellen Daten, die das Modell verarbeitet, mit den Trainingsdaten decken. Mit anderen Worten: Ist es qualifiziert genug, Entscheidungen zu treffen und “weiß es, wovon es redet”? Diese Dissertation [Mo21] konzentriert sich auf tiefe generative Modelle, die auf probabilistischen Schaltkreisen basieren; die es uns erlauben, eine breite Spanne von normalisierten Wahrscheinlichkeitsanfragen in einer garantierten Rechenzeit zu beantworten. Diese generativen Modelle können dann auf Bias überprüft werden, einschließlich, wie sicher sie sich einer bestimmten Antwort sind, weil sie “wissen, wenn sie es nicht wissen”.

Beschreibung

Molina Ramirez, Alejandro (2022): Tiefe Netzwerke, die wissen, wenn sie etwas nicht wissen. D22. Bonn: Köllen Druck + Verlag GmbH. ISBN: 978-3-88579-980-1. pp. 211-220. Schoss Dagstuhl, Deutschland. 22.-25. Mai 2022

Schlagwörter

Zitierform

DOI

Tags