Auflistung nach Schlagwort "Konzept-Lernen"
1 - 1 von 1
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelVerbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI)(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 1, 2020) Holzinger, Andreas; Müller, HeimoKünstliche Intelligenz (KI) folgt dem Begriff der menschlichen Intelligenz, der leider kein klar definierter Begriff ist. Die gebräuchlichste Definition, wie sie in der Kognitionswissenschaft als mentale Fähigkeit gegeben ist, enthält unter anderem die Fähigkeit, abstrakt, logisch und schlussfolgernd zu denken und gegebene Probleme der realen Welt zu lösen. Ein aktuelles Thema in der KI ist es, herauszufinden, ob und inwieweit Algorithmen in der Lage sind, solches abstraktes Denken und Schlussfolgern ähnlich wie Menschen zu erlernen – oder ob das Lernergebnis auf rein statistischer Korrelation beruht. In diesem Beitrag stellen wir eine von uns entwickelte frei verfügbare, universelle und erweiterbare experimentelle Testumgebung vor. Diese „Kandinsky Patterns“ ( https://human-centered.ai/project/kandinsky-patterns , https://www.youtube.com/watch?v=UuiV0icAlRs ), benannt nach dem russischen Maler und Kunsttheoretiker Wassily Kandinsky (1866–1944), stellen eine Art „Schweizer Messer“ zum Studium der genannten Problemstellungen dar. Das Gebiet, dass diese Problemstellungen behandelt wird „explainable AI“ (xAI) genannt. Erklärbarkeit/Interpretierbarkeit hat das Ziel, menschlichen Experten zu ermöglichen, zugrundeliegende Erklärungsfaktoren – die Kausalität – zu verstehen, also warum eine KI-Entscheidung getroffen wurde, und so den Weg für eine transparente und verifizierbare KI zu ebnen. Artificial intelligence (AI) follows the concept of human intelligence, which unfortunately is not a clearly defined concept. The most common definition, as given in cognitive science as a mental ability, includes the ability to think abstract, logical and deductively and to solve given problems of the real world. A current topic in AI is to find out whether and to what extent algorithms are capable of learning such abstract “thinking” and reasoning similar to humans—or whether the learning outcome is based on purely statistical correlation. In this paper we present a freely available, universal and extensible experimental test environment. These “Kandinsky Patterns”, named after the Russian painter and art theorist Wassily Kandinsky (1866–1944), represent a kind of “Swiss knife” for studying the problems mentioned above. The area that deals with these problems is called “explainable AI” (xAI). Explainability/Interpretability aims to enable human experts to understand the underlying explanatory factors—causality—i.e. why an AI decision was made, thus paving the way for a transparent and verifiable AI.