Auflistung nach Schlagwort "Bias"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragDebiasing Vandalism Detection Models at Wikidata(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft, 2019) Heindorf, Stefan; Scholten, Yan; Engels, Gregor; Potthast, Martin
- TextdokumentGrundkonzepte des Maschinellen Lernens für die Grundschule – Algorithmen, Biases, Generalisierungsfehler(INFORMATIK 2021, 2021) Schmid, Ute; Gärtig-Daugs, Anja; Müller, Linda; Werner, AlexanderDa digitale Technologien zunehmend mehr Lebens- und Arbeitsbereiche durchdringen, gewinnt die Förderung digitaler Kompetenzen bereits ab der Grundschule an Bedeutung. Durch entsprechende Bildungsangebote sollen Kinder beim Erschließen, Verstehen und Mitgestalten der digitalen Welt unterstützt werden. Hierbei ist wichtig, nicht nur digitale Handlungskompetenzen auf der Anwendungsebene zu fördern, sondern Kinder beim Verstehen der zugrundeliegenden Funktionsprinzipien zu unterstützen. Ein grundlegendes Verständnis der algorithmischen Konzepte, die den digitalen Anwendungen zugrundeliegen ist hierfür zentral. Zunehmend beinhalten digitale Anwendungen Komponenten, die auf Ansätzen der Künstlichen Intelligenz (KI) basieren. Kinder begegnen solchen Systemen etwa in Form von intelligenten Sprachassistenten bei Fernsehern oder beim Entsperren von Smartphones mittels Gesichtserkennung. Damit das kindliche Verständnis von KITechnologien gefördert werden kann, muss das komplexe Thema für Kinder in didaktisch reduzierter Form erfahrbar gemacht werden.Wir haben hierzu ein Spiel entwickelt, mit dem Kinder grundlegende Konzepte des maschinellen Lernens wie regelbasierte Algorithmen (Entscheidungsbaumverfahren) und neuronale Netze (Perzeptron) spielerisch erkunden können. Neben einem Grundverständnis von Lernalgorithmen werden Kinder für kritische Aspekte wie Biases und Generalisierungsfehler sensibilisiert. Durch Rückbezug des Spiels auf KI-Algorithmen im Alltag sollen die Kinder zur Reflektion der Möglichkeiten und Grenzen von KI angeregt werden.
- ZeitschriftenartikelHighly Accurate, But Still Discriminatory(Business & Information Systems Engineering: Vol. 63, No. 1, 2021) Köchling, Alina; Riazy, Shirin; Wehner, Marius Claus; Simbeck, KatharinaThe study aims to identify whether algorithmic decision making leads to unfair (i.e., unequal) treatment of certain protected groups in the recruitment context. Firms increasingly implement algorithmic decision making to save costs and increase efficiency. Moreover, algorithmic decision making is considered to be fairer than human decisions due to social prejudices. Recent publications, however, imply that the fairness of algorithmic decision making is not necessarily given. Therefore, to investigate this further, highly accurate algorithms were used to analyze a pre-existing data set of 10,000 video clips of individuals in self-presentation settings. The analysis shows that the under-representation concerning gender and ethnicity in the training data set leads to an unpredictable overestimation and/or underestimation of the likelihood of inviting representatives of these groups to a job interview. Furthermore, algorithms replicate the existing inequalities in the data set. Firms have to be careful when implementing algorithmic video analysis during recruitment as biases occur if the underlying training data set is unbalanced.
- KonferenzbeitragToward to Reduction of Bias for Gender and Ethnicity from Face Images using Automated Skin Tone Classification(BIOSIG 2020 - Proceedings of the 19th International Conference of the Biometrics Special Interest Group, 2020) Molina, David; Causa, Leonardo; Tapia, JuanThis paper proposes and analyzes a new approach for reducing the bias in gender caused by skin tone from faces based on transfer learning with fine-tuning. The categorization of the ethnicity was developed based on an objective method instead of a subjective Fitzpatrick scale. A Kmeans method was used to categorize the color faces using clusters of RGB pixel values. Also, a new database was collected from the internet and will be available upon request. Our method outperforms the state of the art and reduces the gender classification bias using the skin-type categorization. The best results were achieved with VGGNET architecture with 96.71% accuracy and 3.29% error rate.