Lindemann, Nora Freya2024-10-102024-10-1020242364-6152https://dl.gi.de/handle/20.500.12116/44968Seit der Einführung von ChatGPT im Herbst 2022 ste- hen künstliche Intelligenz (KI) und insbesondere große Sprachmodelle (LLMs) wie ChatGPT häufig im Mittelpunkt der öffentlichen Debatte. Doch während ChatGPT in den Medien stark diskutiert wird, neigt die Berichterstattung oft dazu, die Technologien in einer anthropomorphisierten, vermenschlichten Weise dar- zustellen. Diese Darstellung von ChatGPT und LLMs als menschenähnlich entspricht nicht der technischen Realität. Darüber hinaus zeichnet die Berichterstat- tung häufig ein utopisches oder dystopisches Bild von KI, das KI entweder als sehr gefährlich oder als übertrieben positiv und die Welt rettend darstellt. Die Anthropomorphisierung von KI und die Einbettung von KI in utopische/dystopische Szenarien hat Folgen: KI wird dadurch als etwas Zukünftiges dargestellt (da die Auswirkungen von KI in utopische oder dystopische Zukünfte projiziert werden), während gleichzeitig die tatsächliche Funktionsweise der Modelle in den Hin- tergrund rückt. Dies lenkt von der technischen Realität dieser KI-Systeme ab und sorgt gleichzeitig dafür, dass die aktuellen und realen Auswirkungen der bereits existierenden Sprachmodelle im öffentlichen Diskurs weniger Beachtung finden. In diesem Artikel argumentiere ich, dass ein Umdenken in der Berichterstattung und im öffentlichen Diskurs über ChatGPT und KI notwendig ist. Es ist wichtig, die technische Realität von Sprachmodellen zu erklären, anthropomorphisierende Darstellungen zu vermeiden und die Aufmerksamkeit auf die tatsächlichen, aktuellen Auswirkungen von LLMs zu lenken. Dies kann dazu beitragen, Fehleinschätzungen von Sprachtechnologien zu vermeiden und ein ausgewogeneres Verständnis ihrer Potenziale und Risiken zu fördern.deZwischen Hype und Dystopie: Warum wir ein Umdenken in der Debatte um ChatGPT und Co brauchenText/Journal Article10.18420/MFI-48-05