Auflistung HMD 59(2) - April 2022 - Digitale Ethik im KI-Zeitalter nach Titel
1 - 10 von 22
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAkzeptierte Geschäftsprozesse gestalten und implementieren(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Drewes, Lars; Nissen, VolkerGemäß der Prozessakzeptanztheorie hat die Akzeptanz von Prozessen einen Einfluss auf deren korrekte Ausführung. Sollen Abweichungen und Manipulationen in der Prozessausführung, die auch ethisch negativ konnotiert sein können, verhindert werden, ist es notwendig zu verstehen, welche Faktoren einen Einfluss auf die Akzeptanz aufweisen. In der vorliegenden Arbeit wird der Einfluss von Selbstheilungsfähigkeiten im Prozess sowie der Einfluss eines damit verbundenen Verlustes der Kontrolle der Beteiligten über die Daten in zwei Experimenten untersucht. Dadurch, dass ein Algorithmus die Kontrolle über den Prozess übernimmt, ist hier die digitale Ethik betroffen. Die Basis für das Experiment bildet ein generischer Einkaufsprozess, der online über Amazon’s Mechanical Turk bereitgestellt wird. Die Prozessakzeptanz wird mit Hilfe eines Fragebogens aufgeteilt in die drei Dimensionen der Einstellung (kognitiv, affektiv, konativ) gemessen. Das erste Experiment zeigt, dass es einen signifikanten Unterschied in der Akzeptanz von Prozesse mit und ohne Selbstheilungsmechanismen gibt. Die Ergebnisse der Tests deuten darauf hin, dass die Selbstheilung nicht automatisch besser akzeptiert wird als wiederholte manuelle Anstrengungen. Dieses Ergebnis ist auch praktisch sehr wichtig, denn automatisierte Rekonstruktionen nehmen heute eine wichtige Rolle in der IT-gestützten Ausführung von Geschäftsprozessen ein. Eine vorläufige Erklärung ist, dass ein Verlust der Kontrolle der Teilnehmer über die Daten zu diesem scheinbar kontra-intuitiven Ergebnis führt. Im zweiten Experiment wird daher der Kontrollverlust untersucht. Es konnte dahingehend keine Signifikanz festgestellt werden, allerdings deutet die gemessene Teststärke darauf hin, dass das gewählte Testdesign möglicherweise nicht sensibel genug war, solche Unterschiede messen zu können. Weitere Untersuchungen sind daher nötig. According to the process acceptance theory, the acceptance of processes has an influence on their correct execution. If deviations and manipulations in the process execution, which can also have negative ethical connotations, are to be prevented, it is necessary to understand which factors have an influence on the acceptance. In the present work, the influence of self-healing capabilities in the process as well as the influence of a related loss of control of the participants over the data is investigated in two experiments. By having an algorithm take control of the process, digital ethics are affected here. The basis for the experiment is a generic shopping process provided online via Amazon’s Mechanical Turk. Process acceptance is measured using a questionnaire divided into the three dimensions of attitude (cognitive, affective, conative). The first experiment shows that there is a significant difference in the acceptance of processes with and without self-healing mechanisms. The results of statistic tests indicate that self-healing is not automatically better accepted than repeated manual efforts. This result is also practically very important, because automated reconstructions now play an important role in the IT-supported execution of business processes. A tentative explanation is that a loss of participant control over the data leads to this seemingly counter-intuitive result. The second experiment therefore investigates loss of control. No significance was found in this regard; however, the measured test strength suggests that the chosen test design may not have been sensitive enough to measure such differences. Further investigations are therefore necessary.
- ZeitschriftenartikelDer Artificial Intelligence Act – eine Praxisanalyse am Beispiel von Gesichtserkennungssoftware(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Wudel, Alexandra; Schulz, MichaelDer Einsatz Künstlicher Intelligenz (KI) eröffnet ein Spannungsfeld zwischen Innovationspotentialen und Regulierungsdrang. Auf harmonisierte Richtlinien zur Regulierung dieser Technologie kann derzeit jedoch nicht zurückgegriffen werden. Gleichzeitig kommt es zu Diskriminierungsfällen, durch die der Bedarf an entsprechenden Gesetzen deutlich wird. Ein politischer Meilenstein in der Entwicklung eines Regelwerks kommt aus der Europäischen Union. Seit dem 21.04.2021 liegt der Artificial Intelligence Act der Europäischen Kommission vor. Der Gesetzesvorschlag versucht einen Spagat, um Innovationen weiter zu fördern und gleichzeitig ethische Dimensionen wie Nicht-Diskriminierung zu regulieren. Dieser Artikel stellt eine Statusanalyse von KI-Systemen in der Strafverfolgung in Europa im Vergleich zu den USA vor. Dieser soll herausstellen inwieweit derzeit ein Unterschied im Einsatz von KI aufgrund der geografischen Lage existiert und welche Chancen ebenso wie Herausforderungen ein globales Regelwerk für den ethischen Einsatz von KI aus europäischer Perspektive birgt. Da die Anwendung von Gesichtserkennungssoftware im Bereich der Strafverfolgung weit verbreitet ist, kann durch diese Untersuchung dringend notwendiger Handlungsbedarf der Gesetzgebung erkannt werden. The use of Artificial Intelligence (AI) opens up a field of tension between innovation potential and the need for regulation. However, harmonized guidelines for regulating this technology do currently not exist. At the same time, there are cases of discrimination in which the need for appropriate laws becomes clear. A political milestone in the development of a set of rules comes from the European Union. The Artificial Intelligence Act of the European Commission has been in place since April 21, 2021. The proposed law attempts a balancing act to further promote innovation and at the same time to regulate ethical dimensions such as non-discrimination. This article presents a status analysis of AI systems in law enforcement in Europe compared to the USA. This comparison is intended to highlight the extent to which there is currently a difference between the use of AI due to the geographical location and what opportunities and challenges a global set of rules for the ethical use of AI offers from a European perspective. Since the use of facial recognition software is widespread in the area of law enforcement, this investigation can identify the urgent need for legislative action.
- ZeitschriftenartikelComputational Ethics(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Portmann, Edy; D’Onofrio, SaraDie zunehmende Nutzung und Akzeptanz der künstlichen Intelligenz (KI) erfordert neue Lösungsansätze, die ethische Werte wie Privatsphäre und Gleichheit in Entscheidungsprozessen berücksichtigen. In diesem Artikel stellen wir das konzeptionelle Artefakt der Computational Ethics als eine der Lösungsansätze des KI-Zeitalters vor, das aus den Elementen Computing with Words and Perceptions, digitale Ethik mit wort-/wahrnehmungsbasierten Werten und den Rahmenbedingungen eines Human Life Engineering besteht. Das komplementäre Zusammenspiel dieser drei Elemente erlaubt es der Computational Ethics, natürlichsprachige Informationen, bewertet nach gemeinsam festgelegten diskursethischen Grundsätzen, in einem kontextbasierten Modell natürlichsprachigen Rechnens als Referenzschema zu nutzen und die möglichen Handlungsoptionen einer KI nach ethischem Maß zu bewerten. So können autonome Entscheidungen unter Berücksichtigung der ethischen Werte des einzelnen Menschen und der Gesellschaft getroffen werden. The increasing use and acceptance of artificial intelligence (AI) requires new solution approaches that consider ethical values such as privacy and equality in automatic decision-making processes. In this article, we present the conceptual artefact of a computational ethics as one of the solution approaches of the new age of AI, which consists of the elements of computing with words and perceptions, digital ethics with word-/perception-based values, as well as the conditions of a human life engineering. The complementary interplay of these three elements allows our computational ethics to use natural language information, evaluated based on commonly established discourse-ethics principles, in a context-based model of natural language computing as a reference scheme and to assess the possible courses of action of an AI according to ethical standards. In this way, autonomous decisions can be made, while considering the ethical values of the individual and society.
- ZeitschriftenartikelDigitale Ethik aus Studierendensicht – Ethische Treiber und Barrieren zur Nutzung eines Digitalen Studienassistenten(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Greiff, PaulDie fortschreitende Digitalisierung der Hochschullandschaft führt dazu, dass sowohl Lehrende als auch Studierende sich auf den Umgang mit neuen Technologien einstellen müssen. Eine dieser neuen Technologien sind digitale Assistenten, welche bereits in anderen Bereichen des täglichen Lebens Einzug gehalten haben. Digitale Assistenten besitzen die Fähigkeit mehrere vormals unverknüpfte Daten zu verbinden, um auf dieser Grundlage Empfehlungen abzugeben oder sogar Vorhersagen zu treffen. Im Hochschulkontext kann ein Digitaler Studienassistent (DSA) Studierenden beispielsweise Vorschläge für eine Modulwahl geben, auf Grundlage der fachlichen Interessen zusätzliches Lehrmaterial zur Verfügung stellen oder auch bei der Organisation eines Auslandssemesters unterstützen. Bei all den vielfältigen Anwendungsmöglichkeiten und der mitschwingenden Euphorie, die ein solches System bei der Implementierung mit sich bringt, wird oft vergessen, die Nutzerperspektive angemessen zu berücksichtigen. Besonders der Bereich digitale Ethik hat hier bisher eher ein Schattendasein geführt. Dabei ist insbesondere ein System, welches persönliche Daten verknüpft und mit Entscheidungshinweisen in den Alltag der Nutzer eingreift, der kritischen ethischen Betrachtung der Nutzergruppe, im Falle des DSA : den Studierenden, ausgesetzt. Dieser Beitrag nimmt sich daher dieser Thematik an und untersucht die ethischen Treiber, welche eine Nutzung des DSAs begünstigen und Barrieren, welche einer Nutzung entgegenstehen. Zudem soll auch geklärt werden, was Studierende grundlegend unter digitaler Ethik verstehen. Ziel ist es, mittels einer explorativen Befragung einen Überblick über die genannten Faktoren zu geben und aufzuzeigen, wie diese von Entwicklerseite berücksichtigt werden können. The ongoing digitization of the higher education landscape implies that both teachers and students often have to adapt to new technologies. One of these new technologies are digital assistants, which have already found their way into other areas of daily life. Digital assistants have the ability to connect multiple unrelated data to make recommendations or even predictions based on that data. In the university context, a Digital Study Assistant (DSA) could give students recommendations for a module choice, provide additional teaching material based on subject-specific interests, or even support them in organizing a semester abroad. With all the diverse application possibilities and the resonating euphoria that such a system entails, the user perspective is often forgotten to be adequately considered. The area of digital ethics in particular has tended to lead a rather shadowy existence here so far. In this respect, a system that links personal data and intervenes in the everyday life of users with decision-making instructions is particularly exposed to the critical ethical consideration of the user group, in the case of the DSA: the students. This paper therefore addresses this issue and examines the ethical drivers that favor the use of the DSA and barriers that stand in the way of its use. In addition, it will also clarify what students fundamentally understand by digital ethics. The aim is to provide an overview of the factors mentioned by means of an explorative survey and to show how they can be taken into account by developers.
- Zeitschriftenartikeldrohnen fliegen wie melonen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Meier, Andreas
- ZeitschriftenartikelDer Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – Eine strukturierte Untersuchung von kognitiven Verzerrungen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Herm, Lukas-Valentin; Janiesch, Christian; Fuchs, PatrickKünstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.
- ZeitschriftenartikelEthische KI? Datenbasierte Systeme (DS) mit Ethik(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kirchschläger, Peter G.Im Kontext digitaler Transformation und künstlicher Intelligenz (KI) ergeben sich neue ethische Fragen. Grundsätzlich kommen zunächst Zweifel auf, ob der Begriff „künstliche Intelligenz“ adäquat ist dafür, worum es sich bei KI handelt, oder ob nicht der Begriff „datenbasierte Systeme (DS)“ präziser zu bezeichnen vermag, was Maschinen eigentlich leisten können und was technisch machbar ist. Darüber hinaus wäre die Möglichkeit zu prüfen, ob Menschen ethische Fragen und Probleme an Maschinen delegieren könnten. Schliesslich stellt sich auf der Basis der Auseinandersetzung mit diesen Fragen die Herausforderung, angesichts der Komplexität von Ethik, die ethischen Potenziale von DS entsprechend einzuordnen und zu verstehen, und damit verbunden die Verantwortung von Menschen für das Design, die Entwicklung, die Nutzung von „human rights based DS“ (HRBDS) (menschenrechtsbasierten DS) bzw. für den ethisch begründeten Verzicht von menschenrechtsverletzenden und/oder umweltzerstörenden, nicht nachhaltigen DS zu bestimmen. In the context of digital transformation and artificial intelligence (AI), new ethical questions arise. In principle, doubts initially arise as to whether the term “artificial intelligence” is adequate for what AI is all about, or whether the term “data-based systems (DS)” might not be able to describe more precisely what machines can actually do and what is technically feasible. Furthermore, the possibility of humans delegating ethical questions and problems to machines should be examined. Finally, on the basis of the discussion of these questions, the challenge arises, in view of the complexity of ethics, to classify and understand the ethical potentials of DS accordingly, and to determine the responsibility of humans for the design, the development, and the use of “human rights based DS” (HRBDS) or for the ethically justified abandonment of DS that violate human rights and/or destroy the environment and are not sustainable
- ZeitschriftenartikelFuzzy Ethizität: Radar für ethische Künstliche Intelligenz(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kaufmann, Michael; Meier, AndreasEine Informations- und Wissensgesellschaft betreibt ihre Wertschöpfungskette primär durch Aufbau, Verarbeitung und Weitergabe von Informationen (digitalen Produkten und Dienstleistungen) respektive von Wissen (intelligenten Produkten und Wissensdienstleistungen). Mit Künstlicher Intelligenz angereicherte Produkte und Dienstleistungen erhöhen deren Verfügbarkeit und Sicherheit, indem Entscheidungen datenbasiert automatisiert werden. Allerdings müssen Ethikregeln berücksichtigt werden, um die Vertrauensbasis digitaler Gesellschaften zu stärken und nachhaltige Entwicklung zu fördern. Im Folgenden wird ein Radarsystem für die Bewertung der Ethizität im Digitalzeitalter vorgeschlagen mit dem Ziel, eine ethische Entwicklung von intelligenten Informationssystemen zum Wohl der Gemeinschaft zu überprüfen. Die sechs Dimensionen dieses Systems basieren auf der Grundlage von Menschenrechten und einer umfassenden Analyse bestehender Ethik-Rahmenwerke für Künstliche Intelligenz: Gleichheit & Gerechtigkeit, Schutz & Hilfe, Privatsphäre & Datenschutz, Freiheit & Autonomie, Solidarität & Nachhaltigkeit und Verantwortlichkeit & Transparenz. Der Beitrag diskutiert diese sechs Dimensionen digitaler Ethik und schlägt ein Radarsystem zur visuellen Analyse der Ethizität von intelligenten Informationssystemen vor. Danach wird das Radarsystem mithilfe der Fallstudie Privacy Setting Framework auf Nützlichkeit evaluiert. Ein Fazit des Beitrags summiert die Erkenntnisse. An information and knowledge society operates its value chain primarily by building, processing, and passing on information (digital products and services) and knowledge (intelligent products and knowledge services). Artificial intelligence-enriched products and services increase their availability and security by automating data-based decisions. However, ethics rules need to be considered to strengthen the trust basis of digital societies and promote sustainable development. In the following, a radar system for the evaluation of ethicity in the Digital Age is proposed with the aim of checking ethical development of intelligent information systems for the benefit of the community. The six dimensions of this system are based on human rights and a comprehensive analysis of existing ethics frameworks for Artificial Intelligence: equality & justice, protection & assistance, privacy & data protection, freedom & autonomy, solidarity & sustainability, and accountability & transparency. The paper discusses these six dimensions of digital ethics and proposes a Radar System for visually analyzing the ethics of intelligent information systems. Afterwards, the radar system is evaluated for usefulness using the Privacy Setting Framework case study. A conclusion of the paper sums up the findings.
- ZeitschriftenartikelHilfsbereit, verständnisvoll, bescheiden: Problematik und Folgen von weiblichen Voice Assistants(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Hefti, SarahDer Artikel legt die soziale und ethische Problematik weiblich konzipierter Voice Assistants dar. Weibliche Voice Assistants, die folgsam bis unterwürfig die ihnen aufgetragenen Arbeiten erledigen und selbst bei Beleidigungen höflich bleiben, können geschlechterstereotype Erwartungen an Frauen in der Gesellschaft hervorrufen und festigen. Angesichts der weltweit starken Zunahme von Voice Assistants ist dies ein Aspekt, der unbedingt thematisiert werden sollte. Die menschliche respektive weibliche Inszenierung der Technologie fusst auf grösstenteils bewussten Entscheidungen der beteiligten Design- und Entwicklungsteams. Sie programmieren geschlechterstereotype Reaktionen, setzen auf weibliche Stimmen und Namen. Die einfach gestrickten, hilfsbereiten weiblichen Voice Assistants können als hochmoderne Technologie Geschlechterstereotype nicht nur abbilden, sondern sie auch direkt zurück an ihre Nutzer:innen spielen. Damit verfügen sie über das Potenzial, längst ausgediente Rollenbilder in der Realität zu nähren. Der Artikel erörtert diese Problematik und analysiert hierfür aktuelle Literatur- und Medienbeiträge. Abschliessend werden mögliche Handlungsfelder für Technologiekonzerne, Forschung, Gesetzgebung und Zivilgesellschaft abgeleitet. Der Weg führt über eine stärkere Sensibilisierung aller an der Entwicklung Beteiligten und der Nutzer:innen. Nur so können Alternativen zu den gängigen Voice Assistants entstehen. The article discusses the social and ethical problems of female voice assistants. Female voice assistants obediently—if not to say submissively—perform their assigned tasks. They remain polite even when insulted. Consequently, they can create and reinforce gender-stereotypical expectations of women in society. Given the significant increase in voice assistants worldwide, this is an aspect that must be addressed. The human respectively female representation of the technology is based on mostly conscious decisions of the development and design teams involved. They program gender-stereotypical reactions, choose female voices and names. The simple, helpful female voice assistants not only reproduce gender stereotypes but also play them back directly to their users as state-of-the-art technology. As a result, female voice assistants can cement outdated gender stereotypes in reality. The article discusses this topic and analyzes current literature and media coverage. Finally, possible fields of action for technology companies, research, legislation, and civil society are derived. The way forward is to raise the awareness of all those involved in developing and using the technology. Only then will it be possible to establish alternatives to the current voice assistants.
- ZeitschriftenartikelHMD 344 Digitale Ethik im KI-Zeitalter(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) D’Onofrio, Sara; Portmann, Edy
- «
- 1 (current)
- 2
- 3
- »