Auflistung nach Schlagwort "Geschlechterstereotype"
1 - 1 von 1
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelHilfsbereit, verständnisvoll, bescheiden: Problematik und Folgen von weiblichen Voice Assistants(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Hefti, SarahDer Artikel legt die soziale und ethische Problematik weiblich konzipierter Voice Assistants dar. Weibliche Voice Assistants, die folgsam bis unterwürfig die ihnen aufgetragenen Arbeiten erledigen und selbst bei Beleidigungen höflich bleiben, können geschlechterstereotype Erwartungen an Frauen in der Gesellschaft hervorrufen und festigen. Angesichts der weltweit starken Zunahme von Voice Assistants ist dies ein Aspekt, der unbedingt thematisiert werden sollte. Die menschliche respektive weibliche Inszenierung der Technologie fusst auf grösstenteils bewussten Entscheidungen der beteiligten Design- und Entwicklungsteams. Sie programmieren geschlechterstereotype Reaktionen, setzen auf weibliche Stimmen und Namen. Die einfach gestrickten, hilfsbereiten weiblichen Voice Assistants können als hochmoderne Technologie Geschlechterstereotype nicht nur abbilden, sondern sie auch direkt zurück an ihre Nutzer:innen spielen. Damit verfügen sie über das Potenzial, längst ausgediente Rollenbilder in der Realität zu nähren. Der Artikel erörtert diese Problematik und analysiert hierfür aktuelle Literatur- und Medienbeiträge. Abschliessend werden mögliche Handlungsfelder für Technologiekonzerne, Forschung, Gesetzgebung und Zivilgesellschaft abgeleitet. Der Weg führt über eine stärkere Sensibilisierung aller an der Entwicklung Beteiligten und der Nutzer:innen. Nur so können Alternativen zu den gängigen Voice Assistants entstehen. The article discusses the social and ethical problems of female voice assistants. Female voice assistants obediently—if not to say submissively—perform their assigned tasks. They remain polite even when insulted. Consequently, they can create and reinforce gender-stereotypical expectations of women in society. Given the significant increase in voice assistants worldwide, this is an aspect that must be addressed. The human respectively female representation of the technology is based on mostly conscious decisions of the development and design teams involved. They program gender-stereotypical reactions, choose female voices and names. The simple, helpful female voice assistants not only reproduce gender stereotypes but also play them back directly to their users as state-of-the-art technology. As a result, female voice assistants can cement outdated gender stereotypes in reality. The article discusses this topic and analyzes current literature and media coverage. Finally, possible fields of action for technology companies, research, legislation, and civil society are derived. The way forward is to raise the awareness of all those involved in developing and using the technology. Only then will it be possible to establish alternatives to the current voice assistants.