Sonnekalb, TimHeinze, Thomas S.Mäder, PatrickKelter, Udo2024-07-262024-07-2620200720-8928https://dl.gi.de/handle/20.500.12116/44152Die meisten Deep-Learning-Verfahren haben einen entscheidenden Nachteil: Sie sind Black-Box-Verfahren. Dadurch ist die Auswertung der Ergebnisse mit der Frage nach dem Warum oftmals nicht oder nur bedingt möglich. Gerade bei der Analyse von Software möchte ein Entwickler aber Ergebnisse mit zusätzlicher Begründung, um sie schnell filtern zu können. Erklärbare und interpretierbare Methoden sollen helfen, die Rückverfolgbarkeit von Analyseergebnissen sowie Erklärungen zu liefern.deKünstliche IntelligenzDeep LearningBlack BoxErklärbarkeitExplainabilityErste Überlegungen zur Erklärbarkeit von Deep-Learning-Modellen für die Analyse von QuellcodeText/Conference Paper