Logo des Repositoriums
 

Verbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI)

dc.contributor.authorHolzinger, Andreas
dc.contributor.authorMüller, Heimo
dc.date.accessioned2021-03-25T13:42:55Z
dc.date.available2021-03-25T13:42:55Z
dc.date.issued2020
dc.description.abstractKünstliche Intelligenz (KI) folgt dem Begriff der menschlichen Intelligenz, der leider kein klar definierter Begriff ist. Die gebräuchlichste Definition, wie sie in der Kognitionswissenschaft als mentale Fähigkeit gegeben ist, enthält unter anderem die Fähigkeit, abstrakt, logisch und schlussfolgernd zu denken und gegebene Probleme der realen Welt zu lösen. Ein aktuelles Thema in der KI ist es, herauszufinden, ob und inwieweit Algorithmen in der Lage sind, solches abstraktes Denken und Schlussfolgern ähnlich wie Menschen zu erlernen – oder ob das Lernergebnis auf rein statistischer Korrelation beruht. In diesem Beitrag stellen wir eine von uns entwickelte frei verfügbare, universelle und erweiterbare experimentelle Testumgebung vor. Diese „Kandinsky Patterns“ ( https://human-centered.ai/project/kandinsky-patterns , https://www.youtube.com/watch?v=UuiV0icAlRs ), benannt nach dem russischen Maler und Kunsttheoretiker Wassily Kandinsky (1866–1944), stellen eine Art „Schweizer Messer“ zum Studium der genannten Problemstellungen dar. Das Gebiet, dass diese Problemstellungen behandelt wird „explainable AI“ (xAI) genannt. Erklärbarkeit/Interpretierbarkeit hat das Ziel, menschlichen Experten zu ermöglichen, zugrundeliegende Erklärungsfaktoren – die Kausalität – zu verstehen, also warum eine KI-Entscheidung getroffen wurde, und so den Weg für eine transparente und verifizierbare KI zu ebnen. Artificial intelligence (AI) follows the concept of human intelligence, which unfortunately is not a clearly defined concept. The most common definition, as given in cognitive science as a mental ability, includes the ability to think abstract, logical and deductively and to solve given problems of the real world. A current topic in AI is to find out whether and to what extent algorithms are capable of learning such abstract “thinking” and reasoning similar to humans—or whether the learning outcome is based on purely statistical correlation. In this paper we present a freely available, universal and extensible experimental test environment. These “Kandinsky Patterns”, named after the Russian painter and art theorist Wassily Kandinsky (1866–1944), represent a kind of “Swiss knife” for studying the problems mentioned above. The area that deals with these problems is called “explainable AI” (xAI). Explainability/Interpretability aims to enable human experts to understand the underlying explanatory factors—causality—i.e. why an AI decision was made, thus paving the way for a transparent and verifiable AI.de
dc.identifier.doi10.1365/s40702-020-00586-y
dc.identifier.pissn2198-2775
dc.identifier.urihttp://dx.doi.org/10.1365/s40702-020-00586-y
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/36040
dc.publisherSpringer
dc.relation.ispartofHMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 1
dc.relation.ispartofseriesHMD Praxis der Wirtschaftsinformatik
dc.subjectArtificial Intelligence (AI)
dc.subjectConcept learning
dc.subjectExplainable AI
dc.subjectInterpretierbare KI
dc.subjectKonzept-Lernen
dc.subjectKünstliche Intelligenz (KI)
dc.subjectMachine Learning (ML)
dc.subjectMaschinelles Lernen (ML)
dc.subjectVerifiable AI
dc.subjectVerifizierbare KI
dc.titleVerbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI)de
dc.typeText/Journal Article
gi.citation.endPage45
gi.citation.startPage33

Dateien