Logo des Repositoriums
 

Tiefe Netzwerke, die wissen, wenn sie etwas nicht wissen

dc.contributor.authorMolina Ramirez, Alejandro
dc.contributor.editorHölldobler, Steffen
dc.date.accessioned2022-12-02T12:57:50Z
dc.date.available2022-12-02T12:57:50Z
dc.date.issued2022
dc.description.abstractViele Modelle des Maschinellen Lernens konzentrieren sich darauf, die größtmögliche Genauigkeit zu bieten. Allerdings sind diese Modelle meist Blackboxen, die schwer zu untersuchen sind. Es handelt sich oft um diskriminative Modelle, die Ergebnisse anhand von Trainingsdaten erzielen, aber kein eigenes Modell für die Daten entwickeln. Wir wollen jedoch wissen, ob sich die aktuellen Daten, die das Modell verarbeitet, mit den Trainingsdaten decken. Mit anderen Worten: Ist es qualifiziert genug, Entscheidungen zu treffen und “weiß es, wovon es redet”? Diese Dissertation [Mo21] konzentriert sich auf tiefe generative Modelle, die auf probabilistischen Schaltkreisen basieren; die es uns erlauben, eine breite Spanne von normalisierten Wahrscheinlichkeitsanfragen in einer garantierten Rechenzeit zu beantworten. Diese generativen Modelle können dann auf Bias überprüft werden, einschließlich, wie sicher sie sich einer bestimmten Antwort sind, weil sie “wissen, wenn sie es nicht wissen”.de
dc.identifier.isbn978-3-88579-980-1
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/39844
dc.language.isode
dc.publisherKöllen Druck + Verlag GmbH
dc.relation.ispartofD22
dc.relation.ispartofseriesAusgezeichnete Informatikdissertationen 2021
dc.titleTiefe Netzwerke, die wissen, wenn sie etwas nicht wissende
dc.typeText/Conference Paper
gi.citation.endPage220
gi.citation.publisherPlaceBonn
gi.citation.startPage211
gi.conference.date22.-25. Mai 2022
gi.conference.locationSchoss Dagstuhl, Deutschland

Dateien

Originalbündel
1 - 1 von 1
Vorschaubild nicht verfügbar
Name:
Molina-Alejandro.pdf
Größe:
1.04 MB
Format:
Adobe Portable Document Format