Erste Überlegungen zur Erklärbarkeit von Deep-Learning-Modellen für die Analyse von Quellcode
dc.contributor.author | Sonnekalb, Tim | |
dc.contributor.author | Heinze, Thomas S. | |
dc.contributor.author | Mäder, Patrick | |
dc.contributor.editor | Kelter, Udo | |
dc.date.accessioned | 2024-07-26T10:18:38Z | |
dc.date.available | 2024-07-26T10:18:38Z | |
dc.date.issued | 2020 | |
dc.description.abstract | Die meisten Deep-Learning-Verfahren haben einen entscheidenden Nachteil: Sie sind Black-Box-Verfahren. Dadurch ist die Auswertung der Ergebnisse mit der Frage nach dem Warum oftmals nicht oder nur bedingt möglich. Gerade bei der Analyse von Software möchte ein Entwickler aber Ergebnisse mit zusätzlicher Begründung, um sie schnell filtern zu können. Erklärbare und interpretierbare Methoden sollen helfen, die Rückverfolgbarkeit von Analyseergebnissen sowie Erklärungen zu liefern. | de |
dc.identifier.issn | 0720-8928 | |
dc.identifier.uri | https://dl.gi.de/handle/20.500.12116/44152 | |
dc.language.iso | de | |
dc.pubPlace | Bonn | |
dc.publisher | Gesellschaft für Informatik e.V. | |
dc.relation.ispartof | Softwaretechnik-Trends Band 40, Heft 2 | |
dc.relation.ispartofseries | Softwaretechnik-Trends | |
dc.subject | Künstliche Intelligenz | |
dc.subject | Deep Learning | |
dc.subject | Black Box | |
dc.subject | Erklärbarkeit | |
dc.subject | Explainability | |
dc.title | Erste Überlegungen zur Erklärbarkeit von Deep-Learning-Modellen für die Analyse von Quellcode | de |
dc.type | Text/Conference Paper | |
mci.conference.date | 16.-18. September 2020 | |
mci.conference.location | Paderborn | |
mci.conference.sessiontitle | 22. Workshop Software-Reengineering und -Evolution (WSRE) und 11. Workshop Design for Future (DFF) | |
mci.reference.pages | 39-40 |
Dateien
Originalbündel
1 - 1 von 1
Lade...
- Name:
- WSRE2020_18_Sonnekalb.pdf
- Größe:
- 154.88 KB
- Format:
- Adobe Portable Document Format