Zeitschriftenartikel
Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – Eine strukturierte Untersuchung von kognitiven Verzerrungen
Vorschaubild nicht verfügbar
Volltext URI
Dokumententyp
Text/Journal Article
Zusatzinformation
Datum
2022
Autor:innen
Zeitschriftentitel
ISSN der Zeitschrift
Bandtitel
Verlag
Springer
Zusammenfassung
Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.