HMD 59(2) - April 2022 - Digitale Ethik im KI-Zeitalter

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 22
  • Zeitschriftenartikel
    Rezension „The Age of A.I.: And Our Human Future“
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Portmann, Edy
  • Zeitschriftenartikel
    Fuzzy Ethizität: Radar für ethische Künstliche Intelligenz
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kaufmann, Michael; Meier, Andreas
    Eine Informations- und Wissensgesellschaft betreibt ihre Wertschöpfungskette primär durch Aufbau, Verarbeitung und Weitergabe von Informationen (digitalen Produkten und Dienstleistungen) respektive von Wissen (intelligenten Produkten und Wissensdienstleistungen). Mit Künstlicher Intelligenz angereicherte Produkte und Dienstleistungen erhöhen deren Verfügbarkeit und Sicherheit, indem Entscheidungen datenbasiert automatisiert werden. Allerdings müssen Ethikregeln berücksichtigt werden, um die Vertrauensbasis digitaler Gesellschaften zu stärken und nachhaltige Entwicklung zu fördern. Im Folgenden wird ein Radarsystem für die Bewertung der Ethizität im Digitalzeitalter vorgeschlagen mit dem Ziel, eine ethische Entwicklung von intelligenten Informationssystemen zum Wohl der Gemeinschaft zu überprüfen. Die sechs Dimensionen dieses Systems basieren auf der Grundlage von Menschenrechten und einer umfassenden Analyse bestehender Ethik-Rahmenwerke für Künstliche Intelligenz: Gleichheit & Gerechtigkeit, Schutz & Hilfe, Privatsphäre & Datenschutz, Freiheit & Autonomie, Solidarität & Nachhaltigkeit und Verantwortlichkeit & Transparenz. Der Beitrag diskutiert diese sechs Dimensionen digitaler Ethik und schlägt ein Radarsystem zur visuellen Analyse der Ethizität von intelligenten Informationssystemen vor. Danach wird das Radarsystem mithilfe der Fallstudie Privacy Setting Framework auf Nützlichkeit evaluiert. Ein Fazit des Beitrags summiert die Erkenntnisse. An information and knowledge society operates its value chain primarily by building, processing, and passing on information (digital products and services) and knowledge (intelligent products and knowledge services). Artificial intelligence-enriched products and services increase their availability and security by automating data-based decisions. However, ethics rules need to be considered to strengthen the trust basis of digital societies and promote sustainable development. In the following, a radar system for the evaluation of ethicity in the Digital Age is proposed with the aim of checking ethical development of intelligent information systems for the benefit of the community. The six dimensions of this system are based on human rights and a comprehensive analysis of existing ethics frameworks for Artificial Intelligence: equality & justice, protection & assistance, privacy & data protection, freedom & autonomy, solidarity & sustainability, and accountability & transparency. The paper discusses these six dimensions of digital ethics and proposes a Radar System for visually analyzing the ethics of intelligent information systems. Afterwards, the radar system is evaluated for usefulness using the Privacy Setting Framework case study. A conclusion of the paper sums up the findings.
  • Zeitschriftenartikel
    Prinzipien für die ethische Nutzung künstlicher Intelligenz
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Barton, Marie-Christin; Pöppelbuß, Jens
    Die voranschreitende Digitalisierung im Allgemeinen und die zunehmende Anwendung von künstlicher Intelligenz (KI) im gesellschaftlichen Alltag bietet einige Vorteile. Allerdings werden von verschiedenen Interessensgruppen ethische Bedenken geäußert. Damit KI langfristig angewendet und KI-Lösungen erfolgreich vertrieben werden können, ist es daher unerlässlich, dass Organisationen eine ethisch-angemessene Richtung einschlagen. So erhält das relativ neue Feld der KI-Ethik wachsendes Interesse sowohl in der Wissenschaft als auch in der Praxis. Dieser Beitrag skizziert ethische Herausforderungen, denen Organisationen begegnen und somit auch Bedenken, die in der Gesamtgesellschaft durch die Digitalisierung im KI-Zeitalter aufkommen. Diese werden auf Basis verschiedener ethischer Modelle untersucht. Zudem wird ein modifiziertes Modell mit sechs Prinzipien für die ethische Nutzung künstlicher Intelligenz vorgeschlagen. Dieses umfasst die sechs KI-Ethik-Prinzipien: Wohltätigkeit, Transparenz, Nicht-Boshaftigkeit, Autonomie, Gerechtigkeit und Datenschutz. Basierend auf diesen sechs Prinzipien werden Handlungsanweisungen im Umgang mit KI-Anwendungen skizziert. Digitization in general and the increasing application of artificial intelligence (AI) in our everyday life offers some advantages. However, ethical concerns are raised by various stakeholders. For AI to be successfully applied in the long term, it is essential that organizations adopt an ethically appropriate direction. Thus, the relatively new field of AI ethics is receiving growing interest from both academia and practitioners. This paper outlines some of the ethical challenges faced by organizations and points to concerns raised in society related to AI. These are examined based on various ethical models. In addition, a modified model with six AI ethics principles is proposed. These include: beneficence, transparency, non-maleficence, autonomy, justice, and data privacy. We further derive directions for action in dealing with AI applications based on the six AI ethics principles.
  • Zeitschriftenartikel
    Wirtschaftsinformatik-Forschung für die und mit der Praxis
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Knoll, Matthias; Robra-Bissantz, Susanne; Grogorick, Linda
  • Zeitschriftenartikel
    Quo Vadis: Auf dem Weg zu Ethik-Guidelines für den Einsatz KI-basierter Lern-Companions in der Lehre?
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Schlimbach, Ricarda; Khosrawi-Rad, Bijan; Robra-Bissantz, Susanne
    Begünstigt durch die wachsende Relevanz digitaler Unterstützungsangebote für das Lehren und Lernen, bspw. in Schulen und Universitäten, gewinnt der Forschungszweig der Conversational Agents im Bildungskontext an Bedeutung. Sogenannte Lern-Companions, also virtuelle Lern-Gefährten, bieten das Potenzial einer nutzeradaptiven sowie örtlich und zeitlich flexiblen Lernbegleitung. Da mit der Anwendung derart neuartiger Zukunftstechnologien ein hohes ethisches Verantwortungsbewusstsein einhergeht, diskutiert dieser Beitrag Chancen und Herausforderungen durch den Einsatz von Lern-Companions aus ethischer Perspektive. Basierend auf einer qualitativen Studie mit sechs Experten sowie der Diskussion der gewonnenen Erkenntnisse mit bestehender Literatur zeigt dieser Artikel sieben praktische Handlungsempfehlungen zur Gestaltung virtueller Lern-Companions aus einem ethischen Blickwinkel auf und adressiert dabei unter anderem den Umgang mit Ethik-Guidelines, aktive Nutzereinbindung und Bildungsgerechtigkeit. The growing relevance of digital support services for teaching and learning, e.g., in schools and universities, has led to an increase in the importance of Conversational Agents in educational contexts. So-called Learning Companions offer the potential of user-adaptive learning support that is flexible in terms of location and time. Since the application of such novel future technologies is accompanied by a strong sense of ethical responsibility, this paper discusses opportunities and challenges posed by the use of Learning Companions from an ethical perspective. Based on a qualitative study with six experts and the discussion of the findings with existing literature, this article presents seven practical recommendations for the design of virtual learning companions from an ethical perspective and addresses, among other aspects, the handling of ethical guidelines, active user involvement, and educational equity.
  • Zeitschriftenartikel
    Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – Eine strukturierte Untersuchung von kognitiven Verzerrungen
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Herm, Lukas-Valentin; Janiesch, Christian; Fuchs, Patrick
    Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.
  • Zeitschriftenartikel
    drohnen fliegen wie melonen
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Meier, Andreas
  • Zeitschriftenartikel
    Self-Service-Portale mit Schwerpunkt Service-Request-Management: Analyse der Eignung existierender Software-Tool-Kategorien
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Floerecke, Sebastian
    Zur Erbringung verschiedenster IT-Service-Management (ITSM)-Prozesse setzen insbesondere Großunternehmen seit Längerem umfangreiche ITSM-Software-Suiten ein. Im Rahmen ihrer Digitalisierungsinitiativen sind sie gegenwärtig verstärkt auf der Suche nach einem ergänzenden Self-Service-Portal. Damit können sich Mitarbeiter in erster Linie über die angebotenen IT-Services informieren und unterschiedliche Service-Request-Typen wie Neubestellungen, Änderungen und Kündigungen initiieren und häufig auch Incidents und Demands erstellen und verfolgen. Die Praxis zeigt, dass sich Unternehmen mit den in ihren jeweiligen ITSM-Software-Suiten als Modul integrierten Self-Service-Portalen hinsichtlich abgedeckter ITSM-Prozesse, allgemeinem Funktionsumfang und User-Experience nicht immer vollumfänglich zufrieden zeigen. Deshalb sehen sie sich vermehrt nach Alternativen um. Der Tool-Auswahlprozess stellt Unternehmensentscheider und IT-Verantwortliche allerdings vielfach vor ein Problem. Die Hauptgründe liegen in der inhärenten Komplexität von ITSM-Software-Suiten und dem großen, aus über 400 Anbietern bestehenden und damit intransparenten Tool-Markt. Vorliegender Beitrag greift diese Problemstellung aus der Praxis auf und geht der Frage nach, welche Tool-Kategorien in diesem Umfeld existieren und inwieweit sich diese jeweils für den Einsatz als Self-Service-Portal mit Schwerpunkt Service-Request-Management eignen. Grundlage der Untersuchung sind eine Internet-Marktrecherche, Gespräche mit erfahrenen Branchenkennern, eine systematische Literaturrecherche, Webseiten von Tool-Herstellern und Telefoninterviews mit Vertretern führender Tool-Hersteller. Large companies in particular have been using comprehensive IT service management (ITSM) software suites for a long time to provide a wide variety of ITSM processes. As part of their digitization initiatives, they are currently increasingly looking for a supplementary self-service portal. Self-service portals allow employees to obtain information about the IT services offered and to initiate different service request types such as new orders, changes and cancellations, and often also create and track incidents and demands. Practice shows that companies are not always completely satisfied with the self-service portals integrated as a module in their respective ITSM software suites regarding covered ITSM processes, general scope of functions and user experience. That is why they are increasingly searching for alternatives. However, the tool selection process often poses a problem for corporate decision-makers and IT managers. The main reasons lie in the inherent complexity of ITSM software suites and the large, non-transparent tool market consisting of over 400 providers. This article takes up this problem from practice and examines the question of which tool categories exist in this environment and to what extent they are suitable for use as a self-service portal with a focus on service request management. The basis of the investigation is an Internet market research, discussions with experienced industry experts, a systematic literature research, tool provider websites and in-depth telephone interviews with representatives of leading tool providers.
  • Zeitschriftenartikel
    Der Artificial Intelligence Act – eine Praxisanalyse am Beispiel von Gesichtserkennungssoftware
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Wudel, Alexandra; Schulz, Michael
    Der Einsatz Künstlicher Intelligenz (KI) eröffnet ein Spannungsfeld zwischen Innovationspotentialen und Regulierungsdrang. Auf harmonisierte Richtlinien zur Regulierung dieser Technologie kann derzeit jedoch nicht zurückgegriffen werden. Gleichzeitig kommt es zu Diskriminierungsfällen, durch die der Bedarf an entsprechenden Gesetzen deutlich wird. Ein politischer Meilenstein in der Entwicklung eines Regelwerks kommt aus der Europäischen Union. Seit dem 21.04.2021 liegt der Artificial Intelligence Act der Europäischen Kommission vor. Der Gesetzesvorschlag versucht einen Spagat, um Innovationen weiter zu fördern und gleichzeitig ethische Dimensionen wie Nicht-Diskriminierung zu regulieren. Dieser Artikel stellt eine Statusanalyse von KI-Systemen in der Strafverfolgung in Europa im Vergleich zu den USA vor. Dieser soll herausstellen inwieweit derzeit ein Unterschied im Einsatz von KI aufgrund der geografischen Lage existiert und welche Chancen ebenso wie Herausforderungen ein globales Regelwerk für den ethischen Einsatz von KI aus europäischer Perspektive birgt. Da die Anwendung von Gesichtserkennungssoftware im Bereich der Strafverfolgung weit verbreitet ist, kann durch diese Untersuchung dringend notwendiger Handlungsbedarf der Gesetzgebung erkannt werden. The use of Artificial Intelligence (AI) opens up a field of tension between innovation potential and the need for regulation. However, harmonized guidelines for regulating this technology do currently not exist. At the same time, there are cases of discrimination in which the need for appropriate laws becomes clear. A political milestone in the development of a set of rules comes from the European Union. The Artificial Intelligence Act of the European Commission has been in place since April 21, 2021. The proposed law attempts a balancing act to further promote innovation and at the same time to regulate ethical dimensions such as non-discrimination. This article presents a status analysis of AI systems in law enforcement in Europe compared to the USA. This comparison is intended to highlight the extent to which there is currently a difference between the use of AI due to the geographical location and what opportunities and challenges a global set of rules for the ethical use of AI offers from a European perspective. Since the use of facial recognition software is widespread in the area of law enforcement, this investigation can identify the urgent need for legislative action.
  • Zeitschriftenartikel
    Ethische KI? Datenbasierte Systeme (DS) mit Ethik
    (HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kirchschläger, Peter G.
    Im Kontext digitaler Transformation und künstlicher Intelligenz (KI) ergeben sich neue ethische Fragen. Grundsätzlich kommen zunächst Zweifel auf, ob der Begriff „künstliche Intelligenz“ adäquat ist dafür, worum es sich bei KI handelt, oder ob nicht der Begriff „datenbasierte Systeme (DS)“ präziser zu bezeichnen vermag, was Maschinen eigentlich leisten können und was technisch machbar ist. Darüber hinaus wäre die Möglichkeit zu prüfen, ob Menschen ethische Fragen und Probleme an Maschinen delegieren könnten. Schliesslich stellt sich auf der Basis der Auseinandersetzung mit diesen Fragen die Herausforderung, angesichts der Komplexität von Ethik, die ethischen Potenziale von DS entsprechend einzuordnen und zu verstehen, und damit verbunden die Verantwortung von Menschen für das Design, die Entwicklung, die Nutzung von „human rights based DS“ (HRBDS) (menschenrechtsbasierten DS) bzw. für den ethisch begründeten Verzicht von menschenrechtsverletzenden und/oder umweltzerstörenden, nicht nachhaltigen DS zu bestimmen. In the context of digital transformation and artificial intelligence (AI), new ethical questions arise. In principle, doubts initially arise as to whether the term “artificial intelligence” is adequate for what AI is all about, or whether the term “data-based systems (DS)” might not be able to describe more precisely what machines can actually do and what is technically feasible. Furthermore, the possibility of humans delegating ethical questions and problems to machines should be examined. Finally, on the basis of the discussion of these questions, the challenge arises, in view of the complexity of ethics, to classify and understand the ethical potentials of DS accordingly, and to determine the responsibility of humans for the design, the development, and the use of “human rights based DS” (HRBDS) or for the ethically justified abandonment of DS that violate human rights and/or destroy the environment and are not sustainable