Auflistung HMD 59(2) - April 2022 - Digitale Ethik im KI-Zeitalter nach Schlagwort "Artificial Intelligence"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelComputational Ethics(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Portmann, Edy; D’Onofrio, SaraDie zunehmende Nutzung und Akzeptanz der künstlichen Intelligenz (KI) erfordert neue Lösungsansätze, die ethische Werte wie Privatsphäre und Gleichheit in Entscheidungsprozessen berücksichtigen. In diesem Artikel stellen wir das konzeptionelle Artefakt der Computational Ethics als eine der Lösungsansätze des KI-Zeitalters vor, das aus den Elementen Computing with Words and Perceptions, digitale Ethik mit wort-/wahrnehmungsbasierten Werten und den Rahmenbedingungen eines Human Life Engineering besteht. Das komplementäre Zusammenspiel dieser drei Elemente erlaubt es der Computational Ethics, natürlichsprachige Informationen, bewertet nach gemeinsam festgelegten diskursethischen Grundsätzen, in einem kontextbasierten Modell natürlichsprachigen Rechnens als Referenzschema zu nutzen und die möglichen Handlungsoptionen einer KI nach ethischem Maß zu bewerten. So können autonome Entscheidungen unter Berücksichtigung der ethischen Werte des einzelnen Menschen und der Gesellschaft getroffen werden. The increasing use and acceptance of artificial intelligence (AI) requires new solution approaches that consider ethical values such as privacy and equality in automatic decision-making processes. In this article, we present the conceptual artefact of a computational ethics as one of the solution approaches of the new age of AI, which consists of the elements of computing with words and perceptions, digital ethics with word-/perception-based values, as well as the conditions of a human life engineering. The complementary interplay of these three elements allows our computational ethics to use natural language information, evaluated based on commonly established discourse-ethics principles, in a context-based model of natural language computing as a reference scheme and to assess the possible courses of action of an AI according to ethical standards. In this way, autonomous decisions can be made, while considering the ethical values of the individual and society.
- ZeitschriftenartikelDer Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – Eine strukturierte Untersuchung von kognitiven Verzerrungen(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Herm, Lukas-Valentin; Janiesch, Christian; Fuchs, PatrickKünstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.
- ZeitschriftenartikelPrinzipien für die ethische Nutzung künstlicher Intelligenz(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Barton, Marie-Christin; Pöppelbuß, JensDie voranschreitende Digitalisierung im Allgemeinen und die zunehmende Anwendung von künstlicher Intelligenz (KI) im gesellschaftlichen Alltag bietet einige Vorteile. Allerdings werden von verschiedenen Interessensgruppen ethische Bedenken geäußert. Damit KI langfristig angewendet und KI-Lösungen erfolgreich vertrieben werden können, ist es daher unerlässlich, dass Organisationen eine ethisch-angemessene Richtung einschlagen. So erhält das relativ neue Feld der KI-Ethik wachsendes Interesse sowohl in der Wissenschaft als auch in der Praxis. Dieser Beitrag skizziert ethische Herausforderungen, denen Organisationen begegnen und somit auch Bedenken, die in der Gesamtgesellschaft durch die Digitalisierung im KI-Zeitalter aufkommen. Diese werden auf Basis verschiedener ethischer Modelle untersucht. Zudem wird ein modifiziertes Modell mit sechs Prinzipien für die ethische Nutzung künstlicher Intelligenz vorgeschlagen. Dieses umfasst die sechs KI-Ethik-Prinzipien: Wohltätigkeit, Transparenz, Nicht-Boshaftigkeit, Autonomie, Gerechtigkeit und Datenschutz. Basierend auf diesen sechs Prinzipien werden Handlungsanweisungen im Umgang mit KI-Anwendungen skizziert. Digitization in general and the increasing application of artificial intelligence (AI) in our everyday life offers some advantages. However, ethical concerns are raised by various stakeholders. For AI to be successfully applied in the long term, it is essential that organizations adopt an ethically appropriate direction. Thus, the relatively new field of AI ethics is receiving growing interest from both academia and practitioners. This paper outlines some of the ethical challenges faced by organizations and points to concerns raised in society related to AI. These are examined based on various ethical models. In addition, a modified model with six AI ethics principles is proposed. These include: beneficence, transparency, non-maleficence, autonomy, justice, and data privacy. We further derive directions for action in dealing with AI applications based on the six AI ethics principles.