Konferenzbeitrag
Interpretation von Black-Box-Modellen im Maschinellen Lernen
Lade...
Volltext URI
Dokumententyp
Text/Conference Paper
Dateien
Zusatzinformation
Datum
2023
Autor:innen
Zeitschriftentitel
ISSN der Zeitschrift
Bandtitel
Verlag
Gesellschaft für Informatik e.V.
Zusammenfassung
Komplexe Modelle des maschinellen Lernens (ML) und tiefer neuronaler Netze (DNN) sind in der Regel weniger interpretierbar und werden zunehmend zu black-box Methoden. Bei der Verwendung eines Blackbox-Modells in vielen Situationen unakzeptabel (z. B. in klinischen Situationen, in denen KI erhebliche Auswirkungen auf das Leben von Menschen haben kann). Angesichts der sich schnell verändernden rechtlichen Rahmenbedingungen, wie z. B. der Datenschutzgrundverordnung (DSVGO) in der EU, sind Erklärbarkeit, Transparenz und Fairness wünschenswerte Eigenschaften von KI, die auch zu rechtlichen Anforderungen geworden sind. Erklärbare künstliche Intelligenz (XAI) zielt darauf ab, ML-Modelle transparenter und verständlicher zu machen, indem sie interpretiert, wie black-box Modelle Entscheidungen treffen. Ziel dieser Arbeit ist die Verbesserung der Interpretierbarkeit und Erklärbarkeit von black-box ML-Modellen. Wir schlagen einen neuro- symbolischen KI-Ansatz vor, der symbolische und konnektionistische KI-Paradigmen kombiniert: Ein konnektionistisches Modell lernt zunächst die Zuordnung von Eingaben zu Ausgaben, um die Vorhersagen zu erstellen, die dann mit Domänenwissen in einer schwach überwachten Weise validiert werden. Eine Domänenontologie und ein Wissensgraph (KG) werden durch die Integration von Fakten aus der wissenschaftlichen Literatur und Wissensdatenbanken erstellt. Eine Reasoning-Engine wird eingesetzt, um die Assoziation signifikanter Merkmale mit verwandten Klassen auf der Grundlage von Beziehungen im KG zu validieren. Schließlich werden evidenzbasierte Regeln durch die Kombination von Entscheidungsregeln, kontrafaktischen Fakten und Inferenz erstellt.