Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- ZeitschriftenartikelPrinzipien für die ethische Nutzung künstlicher Intelligenz(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Barton, Marie-Christin; Pöppelbuß, JensDie voranschreitende Digitalisierung im Allgemeinen und die zunehmende Anwendung von künstlicher Intelligenz (KI) im gesellschaftlichen Alltag bietet einige Vorteile. Allerdings werden von verschiedenen Interessensgruppen ethische Bedenken geäußert. Damit KI langfristig angewendet und KI-Lösungen erfolgreich vertrieben werden können, ist es daher unerlässlich, dass Organisationen eine ethisch-angemessene Richtung einschlagen. So erhält das relativ neue Feld der KI-Ethik wachsendes Interesse sowohl in der Wissenschaft als auch in der Praxis. Dieser Beitrag skizziert ethische Herausforderungen, denen Organisationen begegnen und somit auch Bedenken, die in der Gesamtgesellschaft durch die Digitalisierung im KI-Zeitalter aufkommen. Diese werden auf Basis verschiedener ethischer Modelle untersucht. Zudem wird ein modifiziertes Modell mit sechs Prinzipien für die ethische Nutzung künstlicher Intelligenz vorgeschlagen. Dieses umfasst die sechs KI-Ethik-Prinzipien: Wohltätigkeit, Transparenz, Nicht-Boshaftigkeit, Autonomie, Gerechtigkeit und Datenschutz. Basierend auf diesen sechs Prinzipien werden Handlungsanweisungen im Umgang mit KI-Anwendungen skizziert. Digitization in general and the increasing application of artificial intelligence (AI) in our everyday life offers some advantages. However, ethical concerns are raised by various stakeholders. For AI to be successfully applied in the long term, it is essential that organizations adopt an ethically appropriate direction. Thus, the relatively new field of AI ethics is receiving growing interest from both academia and practitioners. This paper outlines some of the ethical challenges faced by organizations and points to concerns raised in society related to AI. These are examined based on various ethical models. In addition, a modified model with six AI ethics principles is proposed. These include: beneficence, transparency, non-maleficence, autonomy, justice, and data privacy. We further derive directions for action in dealing with AI applications based on the six AI ethics principles.
- ZeitschriftenartikelWirtschaftsinformatik-Forschung für die und mit der Praxis(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Knoll, Matthias; Robra-Bissantz, Susanne; Grogorick, Linda
- ZeitschriftenartikelRezension „The Age of A.I.: And Our Human Future“(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Portmann, Edy
- Zeitschriftenartikeldrohnen fliegen wie melonen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Meier, Andreas
- ZeitschriftenartikelQuo Vadis: Auf dem Weg zu Ethik-Guidelines für den Einsatz KI-basierter Lern-Companions in der Lehre?(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Schlimbach, Ricarda; Khosrawi-Rad, Bijan; Robra-Bissantz, SusanneBegünstigt durch die wachsende Relevanz digitaler Unterstützungsangebote für das Lehren und Lernen, bspw. in Schulen und Universitäten, gewinnt der Forschungszweig der Conversational Agents im Bildungskontext an Bedeutung. Sogenannte Lern-Companions, also virtuelle Lern-Gefährten, bieten das Potenzial einer nutzeradaptiven sowie örtlich und zeitlich flexiblen Lernbegleitung. Da mit der Anwendung derart neuartiger Zukunftstechnologien ein hohes ethisches Verantwortungsbewusstsein einhergeht, diskutiert dieser Beitrag Chancen und Herausforderungen durch den Einsatz von Lern-Companions aus ethischer Perspektive. Basierend auf einer qualitativen Studie mit sechs Experten sowie der Diskussion der gewonnenen Erkenntnisse mit bestehender Literatur zeigt dieser Artikel sieben praktische Handlungsempfehlungen zur Gestaltung virtueller Lern-Companions aus einem ethischen Blickwinkel auf und adressiert dabei unter anderem den Umgang mit Ethik-Guidelines, aktive Nutzereinbindung und Bildungsgerechtigkeit. The growing relevance of digital support services for teaching and learning, e.g., in schools and universities, has led to an increase in the importance of Conversational Agents in educational contexts. So-called Learning Companions offer the potential of user-adaptive learning support that is flexible in terms of location and time. Since the application of such novel future technologies is accompanied by a strong sense of ethical responsibility, this paper discusses opportunities and challenges posed by the use of Learning Companions from an ethical perspective. Based on a qualitative study with six experts and the discussion of the findings with existing literature, this article presents seven practical recommendations for the design of virtual learning companions from an ethical perspective and addresses, among other aspects, the handling of ethical guidelines, active user involvement, and educational equity.
- ZeitschriftenartikelDer Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – Eine strukturierte Untersuchung von kognitiven Verzerrungen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Herm, Lukas-Valentin; Janiesch, Christian; Fuchs, PatrickKünstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.
- ZeitschriftenartikelFuzzy Ethizität: Radar für ethische Künstliche Intelligenz(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kaufmann, Michael; Meier, AndreasEine Informations- und Wissensgesellschaft betreibt ihre Wertschöpfungskette primär durch Aufbau, Verarbeitung und Weitergabe von Informationen (digitalen Produkten und Dienstleistungen) respektive von Wissen (intelligenten Produkten und Wissensdienstleistungen). Mit Künstlicher Intelligenz angereicherte Produkte und Dienstleistungen erhöhen deren Verfügbarkeit und Sicherheit, indem Entscheidungen datenbasiert automatisiert werden. Allerdings müssen Ethikregeln berücksichtigt werden, um die Vertrauensbasis digitaler Gesellschaften zu stärken und nachhaltige Entwicklung zu fördern. Im Folgenden wird ein Radarsystem für die Bewertung der Ethizität im Digitalzeitalter vorgeschlagen mit dem Ziel, eine ethische Entwicklung von intelligenten Informationssystemen zum Wohl der Gemeinschaft zu überprüfen. Die sechs Dimensionen dieses Systems basieren auf der Grundlage von Menschenrechten und einer umfassenden Analyse bestehender Ethik-Rahmenwerke für Künstliche Intelligenz: Gleichheit & Gerechtigkeit, Schutz & Hilfe, Privatsphäre & Datenschutz, Freiheit & Autonomie, Solidarität & Nachhaltigkeit und Verantwortlichkeit & Transparenz. Der Beitrag diskutiert diese sechs Dimensionen digitaler Ethik und schlägt ein Radarsystem zur visuellen Analyse der Ethizität von intelligenten Informationssystemen vor. Danach wird das Radarsystem mithilfe der Fallstudie Privacy Setting Framework auf Nützlichkeit evaluiert. Ein Fazit des Beitrags summiert die Erkenntnisse. An information and knowledge society operates its value chain primarily by building, processing, and passing on information (digital products and services) and knowledge (intelligent products and knowledge services). Artificial intelligence-enriched products and services increase their availability and security by automating data-based decisions. However, ethics rules need to be considered to strengthen the trust basis of digital societies and promote sustainable development. In the following, a radar system for the evaluation of ethicity in the Digital Age is proposed with the aim of checking ethical development of intelligent information systems for the benefit of the community. The six dimensions of this system are based on human rights and a comprehensive analysis of existing ethics frameworks for Artificial Intelligence: equality & justice, protection & assistance, privacy & data protection, freedom & autonomy, solidarity & sustainability, and accountability & transparency. The paper discusses these six dimensions of digital ethics and proposes a Radar System for visually analyzing the ethics of intelligent information systems. Afterwards, the radar system is evaluated for usefulness using the Privacy Setting Framework case study. A conclusion of the paper sums up the findings.
- ZeitschriftenartikelDer Artificial Intelligence Act – eine Praxisanalyse am Beispiel von Gesichtserkennungssoftware(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Wudel, Alexandra; Schulz, MichaelDer Einsatz Künstlicher Intelligenz (KI) eröffnet ein Spannungsfeld zwischen Innovationspotentialen und Regulierungsdrang. Auf harmonisierte Richtlinien zur Regulierung dieser Technologie kann derzeit jedoch nicht zurückgegriffen werden. Gleichzeitig kommt es zu Diskriminierungsfällen, durch die der Bedarf an entsprechenden Gesetzen deutlich wird. Ein politischer Meilenstein in der Entwicklung eines Regelwerks kommt aus der Europäischen Union. Seit dem 21.04.2021 liegt der Artificial Intelligence Act der Europäischen Kommission vor. Der Gesetzesvorschlag versucht einen Spagat, um Innovationen weiter zu fördern und gleichzeitig ethische Dimensionen wie Nicht-Diskriminierung zu regulieren. Dieser Artikel stellt eine Statusanalyse von KI-Systemen in der Strafverfolgung in Europa im Vergleich zu den USA vor. Dieser soll herausstellen inwieweit derzeit ein Unterschied im Einsatz von KI aufgrund der geografischen Lage existiert und welche Chancen ebenso wie Herausforderungen ein globales Regelwerk für den ethischen Einsatz von KI aus europäischer Perspektive birgt. Da die Anwendung von Gesichtserkennungssoftware im Bereich der Strafverfolgung weit verbreitet ist, kann durch diese Untersuchung dringend notwendiger Handlungsbedarf der Gesetzgebung erkannt werden. The use of Artificial Intelligence (AI) opens up a field of tension between innovation potential and the need for regulation. However, harmonized guidelines for regulating this technology do currently not exist. At the same time, there are cases of discrimination in which the need for appropriate laws becomes clear. A political milestone in the development of a set of rules comes from the European Union. The Artificial Intelligence Act of the European Commission has been in place since April 21, 2021. The proposed law attempts a balancing act to further promote innovation and at the same time to regulate ethical dimensions such as non-discrimination. This article presents a status analysis of AI systems in law enforcement in Europe compared to the USA. This comparison is intended to highlight the extent to which there is currently a difference between the use of AI due to the geographical location and what opportunities and challenges a global set of rules for the ethical use of AI offers from a European perspective. Since the use of facial recognition software is widespread in the area of law enforcement, this investigation can identify the urgent need for legislative action.
- ZeitschriftenartikelWertbasiertes Design von Entscheidungsunterstützungssystemen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Lüthi, Nick; Matt, Christian; Myrach, ThomasDurch fortgeschrittenere Algorithmen in Entscheidungsunterstützungssystemen (DSS) bieten sich Unternehmen neue Möglichkeiten, um kognitive Belastungen bei Entscheidungsprozessen zu senken und bessere Ergebnisse zu erreichen. Allerdings mahnen Stimmen aus Forschung und Praxis vor damit einhergehenden Gefahren. Im Raum stehen etwa die systematische Fehlbeurteilung bestimmter Personengruppen, fehlerhafte Einschätzungen von (unternehmerischen) Risiken sowie unklare Verantwortlichkeiten im Falle personeller oder materieller Schäden. Der besseren Berücksichtigung von Werten wird diesbezüglich zunehmend Beachtung geschenkt, denn Algorithmen und die darauf aufbauenden DSS sind keine neutralen Artefakte; sie werden durch aus dem Entstehungsprozess hervorgehenden Wertvorstellungen und Wertannahmen geprägt. Das sogenannte Value Sensitive Design (VSD) wird genutzt, um dieser „Wertgeladenheit“ Rechnung zu tragen, indem Wertetabellen erhoben werden, die Nutzern und Entwicklern in Bezug auf ein DSS als wichtig erscheinen. Fernab konzeptioneller Überlegungen mangelt es aktuell allerdings noch an konkreten praktischen Operationalisierungen solcher Werttabellen. Am Beispiel der algorithmenbasierten Gefahrenerkennung beim Predictive Policing zeigen wir auf, wie sich eine Wertetabelle beim Design eines DSS konkretisieren lässt und welche Schwierigkeiten dabei auftreten können. Das vorgeschlagene dreistufige Operationalisierungsverfahren bietet Praktikern klare Richtlinien, um die Wertgeladenheit und dadurch hervorgehende Problematiken bereits bei der Entwicklung von DSS zu berücksichtigen. The implementation of complex algorithms in decision support systems (DSS) offers companies new opportunities to reduce cognitive load in decision-making processes and to achieve better outcomes. However, voices from research and practice warn of the associated dangers. These include the systematic misjudgement of certain groups, incorrect assessment of (entrepreneurial) risks, and unclear responsibilities in the event of personal or material damage. Values are an increasingly important concept in this regard because algorithms and DSS based on them are not neutral artifacts, they are rather shaped by values and value assumptions arising during the development process. Value Sensitive Design (VSD) is used to account for this “value-ladenness” by creating a list of values that is considered important by users and developers with respect to a DSS. Except conceptual considerations, however, there is currently a lack of concrete practical operationalization of such value-lists. Using predictive policing as a practical example, we detail how a value-list can be used for the design of a DSS and what difficulties can arise in this process. The employed three-step operationalization process provides clear guidelines to practitioners for considering the value-ladenness and resulting problems already during the development of DSS.
- ZeitschriftenartikelAkzeptierte Geschäftsprozesse gestalten und implementieren(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Drewes, Lars; Nissen, VolkerGemäß der Prozessakzeptanztheorie hat die Akzeptanz von Prozessen einen Einfluss auf deren korrekte Ausführung. Sollen Abweichungen und Manipulationen in der Prozessausführung, die auch ethisch negativ konnotiert sein können, verhindert werden, ist es notwendig zu verstehen, welche Faktoren einen Einfluss auf die Akzeptanz aufweisen. In der vorliegenden Arbeit wird der Einfluss von Selbstheilungsfähigkeiten im Prozess sowie der Einfluss eines damit verbundenen Verlustes der Kontrolle der Beteiligten über die Daten in zwei Experimenten untersucht. Dadurch, dass ein Algorithmus die Kontrolle über den Prozess übernimmt, ist hier die digitale Ethik betroffen. Die Basis für das Experiment bildet ein generischer Einkaufsprozess, der online über Amazon’s Mechanical Turk bereitgestellt wird. Die Prozessakzeptanz wird mit Hilfe eines Fragebogens aufgeteilt in die drei Dimensionen der Einstellung (kognitiv, affektiv, konativ) gemessen. Das erste Experiment zeigt, dass es einen signifikanten Unterschied in der Akzeptanz von Prozesse mit und ohne Selbstheilungsmechanismen gibt. Die Ergebnisse der Tests deuten darauf hin, dass die Selbstheilung nicht automatisch besser akzeptiert wird als wiederholte manuelle Anstrengungen. Dieses Ergebnis ist auch praktisch sehr wichtig, denn automatisierte Rekonstruktionen nehmen heute eine wichtige Rolle in der IT-gestützten Ausführung von Geschäftsprozessen ein. Eine vorläufige Erklärung ist, dass ein Verlust der Kontrolle der Teilnehmer über die Daten zu diesem scheinbar kontra-intuitiven Ergebnis führt. Im zweiten Experiment wird daher der Kontrollverlust untersucht. Es konnte dahingehend keine Signifikanz festgestellt werden, allerdings deutet die gemessene Teststärke darauf hin, dass das gewählte Testdesign möglicherweise nicht sensibel genug war, solche Unterschiede messen zu können. Weitere Untersuchungen sind daher nötig. According to the process acceptance theory, the acceptance of processes has an influence on their correct execution. If deviations and manipulations in the process execution, which can also have negative ethical connotations, are to be prevented, it is necessary to understand which factors have an influence on the acceptance. In the present work, the influence of self-healing capabilities in the process as well as the influence of a related loss of control of the participants over the data is investigated in two experiments. By having an algorithm take control of the process, digital ethics are affected here. The basis for the experiment is a generic shopping process provided online via Amazon’s Mechanical Turk. Process acceptance is measured using a questionnaire divided into the three dimensions of attitude (cognitive, affective, conative). The first experiment shows that there is a significant difference in the acceptance of processes with and without self-healing mechanisms. The results of statistic tests indicate that self-healing is not automatically better accepted than repeated manual efforts. This result is also practically very important, because automated reconstructions now play an important role in the IT-supported execution of business processes. A tentative explanation is that a loss of participant control over the data leads to this seemingly counter-intuitive result. The second experiment therefore investigates loss of control. No significance was found in this regard; however, the measured test strength suggests that the chosen test design may not have been sensitive enough to measure such differences. Further investigations are therefore necessary.
- «
- 1 (current)
- 2
- 3
- »