Logo des Repositoriums
 

Explainable AI (ex-AI)

dc.contributor.authorHolzinger, Andreas
dc.date.accessioned2018-04-13T18:33:31Z
dc.date.available2018-04-13T18:33:31Z
dc.date.issued2018
dc.description.abstract,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.de
dc.identifier.doi10.1007/s00287-018-1102-5
dc.identifier.pissn1432-122X
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/16426
dc.language.isode
dc.publisherSpringer-Verlag
dc.relation.ispartofInformatik Spektrum: Vol. 41, No. 2
dc.titleExplainable AI (ex-AI)de
dc.typeText/Journal Article
gi.citation.endPage143
gi.citation.publisherPlaceBerlin Heidelberg
gi.citation.startPage138
gi.conference.sessiontitleAktuelles Schlagwort

Dateien