Auflistung nach Schlagwort "Maschinelles Lernen (ML)"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- TextdokumentBrezel-Cast: Verkaufsprognose von Backwaren(INFORMATIK 2021, 2021) Döring, Nico; Kreiss, Jonathan; Schuster, Thomas; Volz, RaphaelIn diesem Papier diskutieren wir die Anwendbarkeit von Verfahren der künstlichen Intelligenz zur Prognose von Absatzzahlen für eine Bäckerei mittlerer Größe. Dabei wird beschrieben, wie bei der Entwicklung zusätzliche Daten (Kontextinformationen) zur Prognose genutzt werden. Daraufhin werden zwei Verfahren des maschinellen Lernens trainiert und im Ergebnis miteinander verglichen. Neben einer abschließenden Bewertung und Ausblick auf zukünftige Verbesserungen, wird zudem eine Einschätzung zum Einsatz im Produktivbetrieb abgegeben.
- ZeitschriftenartikelOffenheit durch XAI bei ML-unterstützten Entscheidungen: Ein Baustein zur Optimierung von Entscheidungen im Unternehmen?(HMD Praxis der Wirtschaftsinformatik: Vol. 58, No. 2, 2021) Lossos, Christian; Geschwill, Simon; Morelli, FrankKünstliche Intelligenz (KI) und Machine Learning (ML) gelten gegenwärtig als probate Mittel, um betriebswirtschaftliche Entscheidungen durch mathematische Modelle zu optimieren. Allerdings werden die Technologien häufig in Form von „Black Box“-Ansätze mit entsprechenden Risiken realisiert. Der Einsatz von Offenheit kann in diesem Kontext mehr Objektivität schaffen und als Treiber für innovative Lösungen fungieren. Rationale Entscheidungen im Unternehmen dienen im Sinne einer Mittel-Zweck-Beziehung dazu, Wettbewerbsvorteile zu erlangen. Im Sinne von Governance und Compliance sind dabei regulatorische Rahmenwerke wie COBIT 2019 und gesetzliche Grundlagen wie die Datenschutz-Grundverordnung (DSGVO) zu berücksichtigen, die ihrerseits ein Mindestmaß an Transparenz einfordern. Ferner sind auch Fairnessaspekte, die durch Bias-Effekte bei ML-Systemen beeinträchtigt werden können, zu berücksichtigen. In Teilaspekten, wie z. B. bei der Modellerstellung, wird in den Bereichen der KI und des ML das Konzept der Offenheit bereits praktiziert. Das Konzept der erklärbaren KI („Explainable Artificial Intelligence“ – XAI) vermag es aber, das zugehörige Potenzial erheblich steigern. Hierzu stehen verschiedene generische Ansätze (Ante hoc‑, Design- und Post-hoc-Konzepte) sowie die Möglichkeit, diese untereinander zu kombinieren, zur Verfügung. Entsprechend müssen Chancen und Grenzen von XAI systematisch reflektiert werden. Ein geeignetes, XAI-basiertes Modell für das Fällen von Entscheidungen im Unternehmen lässt sich mit Hilfe von Heuristiken näher charakterisieren. Artificial Intelligence (AI) and Machine Learning (ML) are currently considered to be effective tools to optimize business decisions by applying mathematical models. However, they are often implemented as “black box” approaches with corresponding risks. In this context, the usage of openness can create more objectivity and act as a driver for innovative solutions. Rational decisions within the company serve the purpose of gaining competitive advantages in the sense of a means-ends relationship. In terms of governance and compliance, regulatory frameworks like COBIT 2019 and legal foundations such as the General Data Protection Regulation (GDPR) must be taken into account, which require a minimum level of transparency. Furthermore, fairness aspects, which can be affected by bias effects in ML models, have also to be considered. In some aspects, such as in model development, openness is already practiced in the areas of AI and ML. However, the concept of Explainable Artificial Intelligence (XAI) is able to significantly increase potentials. Various generic approaches (ante hoc, design and post-hoc concepts) are available for this purpose, as well as the possibility of combining them with each other. Accordingly, the opportunities and limitations of XAI must be systematically reflected upon. An appropriate XAI-based model for decision making in companies can be characterized by support of heuristics.
- ZeitschriftenartikelVerbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI)(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 1, 2020) Holzinger, Andreas; Müller, HeimoKünstliche Intelligenz (KI) folgt dem Begriff der menschlichen Intelligenz, der leider kein klar definierter Begriff ist. Die gebräuchlichste Definition, wie sie in der Kognitionswissenschaft als mentale Fähigkeit gegeben ist, enthält unter anderem die Fähigkeit, abstrakt, logisch und schlussfolgernd zu denken und gegebene Probleme der realen Welt zu lösen. Ein aktuelles Thema in der KI ist es, herauszufinden, ob und inwieweit Algorithmen in der Lage sind, solches abstraktes Denken und Schlussfolgern ähnlich wie Menschen zu erlernen – oder ob das Lernergebnis auf rein statistischer Korrelation beruht. In diesem Beitrag stellen wir eine von uns entwickelte frei verfügbare, universelle und erweiterbare experimentelle Testumgebung vor. Diese „Kandinsky Patterns“ ( https://human-centered.ai/project/kandinsky-patterns , https://www.youtube.com/watch?v=UuiV0icAlRs ), benannt nach dem russischen Maler und Kunsttheoretiker Wassily Kandinsky (1866–1944), stellen eine Art „Schweizer Messer“ zum Studium der genannten Problemstellungen dar. Das Gebiet, dass diese Problemstellungen behandelt wird „explainable AI“ (xAI) genannt. Erklärbarkeit/Interpretierbarkeit hat das Ziel, menschlichen Experten zu ermöglichen, zugrundeliegende Erklärungsfaktoren – die Kausalität – zu verstehen, also warum eine KI-Entscheidung getroffen wurde, und so den Weg für eine transparente und verifizierbare KI zu ebnen. Artificial intelligence (AI) follows the concept of human intelligence, which unfortunately is not a clearly defined concept. The most common definition, as given in cognitive science as a mental ability, includes the ability to think abstract, logical and deductively and to solve given problems of the real world. A current topic in AI is to find out whether and to what extent algorithms are capable of learning such abstract “thinking” and reasoning similar to humans—or whether the learning outcome is based on purely statistical correlation. In this paper we present a freely available, universal and extensible experimental test environment. These “Kandinsky Patterns”, named after the Russian painter and art theorist Wassily Kandinsky (1866–1944), represent a kind of “Swiss knife” for studying the problems mentioned above. The area that deals with these problems is called “explainable AI” (xAI). Explainability/Interpretability aims to enable human experts to understand the underlying explanatory factors—causality—i.e. why an AI decision was made, thus paving the way for a transparent and verifiable AI.