Auflistung nach Autor:in "Auer, Daphne"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelCommon Grounds Forum - Wie die digitalen Herzensthemen junger Menschen an die Politik getragen werden(Vol. 48, Large Language Models, 2024) Arlinghaus, Clarissa Sabrina; Auer, DaphneInteressieren sich die jungen Menschen überhaupt für Politik? Man muss nur ein wenig suchen und im Handumdrehen entstehen Positionen, die ernst genommen werden können und wollen! Dass es so auch in der Digitalpolitik ist, zeigte Ende 2023 das Common Grounds Forum (CGF), ein Projekt der Gesellschaft für Informatik e.V. und des BMBF für die Verbindung und Sichtbarkeit junger Menschen zwischen 16 und 35 Jahren. Die dort entwickelten Positionen wurden auf dem Digital-Gipfel der Bundesregierung auf der Hauptbühne präsentiert und diskutiert. Zwei unserer Fachgruppenmitglieder berichten über ihre Eindrücke bei dem Beteiligungsformat.
- TextdokumentMinimizing the Annotation Effort for Detecting Wildlife in Camera Trap Images with Active Learning(INFORMATIK 2021, 2021) Auer, Daphne; Bodesheim, Paul; Fiderer, Christian; Heurich, Marco; Denzler, JoachimAnalyzing camera trap images is a challenging task due to complex scene structures at different locations, heavy occlusions, and varying sizes of animals. One particular problem is the large fraction of images only showing background scenes, which are recorded when a motion detector gets triggered by signals other than animal movements. To identify these background images automatically, an active learning approach is used to train binary classifiers with small amounts of labeled data, keeping the annotation effort of humans minimal. By training classifiers for single sites or small sets of camera traps, we follow a region-based approach and particularly focus on distinct models for daytime and nighttime images. Our approach is evaluated on camera trap images from the Bavarian Forest National Park. Comparable or even superior performances to publicly available detectors trained with millions of labeled images are achieved while requiring significantly smaller amounts of annotated training images.