Auflistung nach Schlagwort "Machine Learning (ML)"
1 - 6 von 6
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragCybersecurity Testing for Industry 4.0: Enhancing Deployments in operational I&C systems Through Adversarial Testing and Explainable AI(INFORMATIK 2024, 2024) Ndiaye, Ndeye Gagnessiry; Kirdan, Erkin; Waedt, KarlSeveral emerging technologies have substantially affected the scope and implementation of security testing. This includes the testing of cryptographic algorithm implementation, the security of Machine Learning (ML) and Artificial Intelligence (AI) algorithms, joint functional safety and security-related (IEC TR 63069) testing, security and privacy-related testing of big data and cloud computing, e.g. with regard to de-identification. This paper focuses on the security ML and AI implementations, examining their integration in industrial control and nuclear systems (IEC 62443). Special attention is given to security threats considered throughout the AI system life cycle specifically at design phase. We assess the entirety of the secure development lifecycle, which includes stages such as data and model management, risk assessment, and the enhancement of system robustness and resilience as specified by ISO/IEC 42001. To highlight the critical role of verification and validation (V&V), we conduct a proof-of-concept exploit targeted and gradual feature poisoning attack on a water treatment and distribution simulator fault detector. We achieve to demonstrate the impact of the attack on model robustness and performance through explainable metrics and pave the way for the development of a secure lifecycle framework, thereby increasing the chances of successful deployment.
- TextdokumentKontinuierliche Evaluierung eines KI-basierten interaktiven Systems(INFORMATIK 2021, 2021) Mummert, Niclas; Lange, Olga; Cioflica, Paul; Reutemann, TobiasEine kontinuierliche Evaluierung eines KI-basierten interaktiven Systems wird in diesem Beitrag am Beispiel eines Fahrerassistenzsystems zur Ermittlung von Nutzerpräferenzen über eine Auswahl vom Fahrmodus (Comfort, Normal Sport und Sport+) aus dem Automobilbau vorgestellt. Das zu evaluierende System enthält Machine Learning Modelle, welche anhand Straßen (Asphalt, Pflastersteine, Feldweg) und Nutzerinformationen einen Fahrmodus vorschlägt. Herausforderungen der Evaluierung entstehen vor allem durch die Eingaben der Nutzenden an der Benutzungsschnittstelle (User Interface). Dieser Beitrag stellt mögliche Evaluierungsmethoden zur kontinuierlichen Erfassung der Qualität dieses KI-basierten interaktiven Systems dar und geht der Frage nach Zusammenhängen zwischen dem Handeln der Nutzenden und der Veränderung der ML-Modellen nach.
- TextdokumentModel-based Integrity Monitoring of Industrial Automation And Control Systems(INFORMATIK 2022, 2022) Peters,Ludger; Khalaf,Mahmoud; Waedt,Karl; Schindler,Josef; Belaidi,SiwarThis paper aims to enhance cyber security within Electrical Power Systems (EPS) of power plants by extending and using an updated plant simulator. In this paper, we assume a sophisticated attacker, as part of an Advanced Persistent Threat (APT), who gradually damages or manipulates primary assets (in the sense of ISO/IEC 27005:2018, e. g. main cooling water pumps, feedwater pumps, safety valves, and circuit breakers). Accordingly, we assume that the attack agent performs gradual manipulations at the application level. Detecting and predicting a potential anomaly is designed and implemented based on machine learning of expected behavior. The paper will include examples of attacks executed over an extended time period by gradually manipulating combinations of analog and binary signal values or set-points. Challenges related to the training of the detection algorithms, avoidance of false positives, and concise reporting to non-security domain experts will also be addressed.
- ZeitschriftenartikelOffenheit durch XAI bei ML-unterstützten Entscheidungen: Ein Baustein zur Optimierung von Entscheidungen im Unternehmen?(HMD Praxis der Wirtschaftsinformatik: Vol. 58, No. 2, 2021) Lossos, Christian; Geschwill, Simon; Morelli, FrankKünstliche Intelligenz (KI) und Machine Learning (ML) gelten gegenwärtig als probate Mittel, um betriebswirtschaftliche Entscheidungen durch mathematische Modelle zu optimieren. Allerdings werden die Technologien häufig in Form von „Black Box“-Ansätze mit entsprechenden Risiken realisiert. Der Einsatz von Offenheit kann in diesem Kontext mehr Objektivität schaffen und als Treiber für innovative Lösungen fungieren. Rationale Entscheidungen im Unternehmen dienen im Sinne einer Mittel-Zweck-Beziehung dazu, Wettbewerbsvorteile zu erlangen. Im Sinne von Governance und Compliance sind dabei regulatorische Rahmenwerke wie COBIT 2019 und gesetzliche Grundlagen wie die Datenschutz-Grundverordnung (DSGVO) zu berücksichtigen, die ihrerseits ein Mindestmaß an Transparenz einfordern. Ferner sind auch Fairnessaspekte, die durch Bias-Effekte bei ML-Systemen beeinträchtigt werden können, zu berücksichtigen. In Teilaspekten, wie z. B. bei der Modellerstellung, wird in den Bereichen der KI und des ML das Konzept der Offenheit bereits praktiziert. Das Konzept der erklärbaren KI („Explainable Artificial Intelligence“ – XAI) vermag es aber, das zugehörige Potenzial erheblich steigern. Hierzu stehen verschiedene generische Ansätze (Ante hoc‑, Design- und Post-hoc-Konzepte) sowie die Möglichkeit, diese untereinander zu kombinieren, zur Verfügung. Entsprechend müssen Chancen und Grenzen von XAI systematisch reflektiert werden. Ein geeignetes, XAI-basiertes Modell für das Fällen von Entscheidungen im Unternehmen lässt sich mit Hilfe von Heuristiken näher charakterisieren. Artificial Intelligence (AI) and Machine Learning (ML) are currently considered to be effective tools to optimize business decisions by applying mathematical models. However, they are often implemented as “black box” approaches with corresponding risks. In this context, the usage of openness can create more objectivity and act as a driver for innovative solutions. Rational decisions within the company serve the purpose of gaining competitive advantages in the sense of a means-ends relationship. In terms of governance and compliance, regulatory frameworks like COBIT 2019 and legal foundations such as the General Data Protection Regulation (GDPR) must be taken into account, which require a minimum level of transparency. Furthermore, fairness aspects, which can be affected by bias effects in ML models, have also to be considered. In some aspects, such as in model development, openness is already practiced in the areas of AI and ML. However, the concept of Explainable Artificial Intelligence (XAI) is able to significantly increase potentials. Various generic approaches (ante hoc, design and post-hoc concepts) are available for this purpose, as well as the possibility of combining them with each other. Accordingly, the opportunities and limitations of XAI must be systematically reflected upon. An appropriate XAI-based model for decision making in companies can be characterized by support of heuristics.
- KonferenzbeitragSocio-Technical Challenges and Recommendations for Mitigation when Building ML-Enabled Systems(Software Engineering 2024 (SE 2024), 2024) Mailach, Alina; Siegmund, Norbert
- ZeitschriftenartikelVerbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI)(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 1, 2020) Holzinger, Andreas; Müller, HeimoKünstliche Intelligenz (KI) folgt dem Begriff der menschlichen Intelligenz, der leider kein klar definierter Begriff ist. Die gebräuchlichste Definition, wie sie in der Kognitionswissenschaft als mentale Fähigkeit gegeben ist, enthält unter anderem die Fähigkeit, abstrakt, logisch und schlussfolgernd zu denken und gegebene Probleme der realen Welt zu lösen. Ein aktuelles Thema in der KI ist es, herauszufinden, ob und inwieweit Algorithmen in der Lage sind, solches abstraktes Denken und Schlussfolgern ähnlich wie Menschen zu erlernen – oder ob das Lernergebnis auf rein statistischer Korrelation beruht. In diesem Beitrag stellen wir eine von uns entwickelte frei verfügbare, universelle und erweiterbare experimentelle Testumgebung vor. Diese „Kandinsky Patterns“ ( https://human-centered.ai/project/kandinsky-patterns , https://www.youtube.com/watch?v=UuiV0icAlRs ), benannt nach dem russischen Maler und Kunsttheoretiker Wassily Kandinsky (1866–1944), stellen eine Art „Schweizer Messer“ zum Studium der genannten Problemstellungen dar. Das Gebiet, dass diese Problemstellungen behandelt wird „explainable AI“ (xAI) genannt. Erklärbarkeit/Interpretierbarkeit hat das Ziel, menschlichen Experten zu ermöglichen, zugrundeliegende Erklärungsfaktoren – die Kausalität – zu verstehen, also warum eine KI-Entscheidung getroffen wurde, und so den Weg für eine transparente und verifizierbare KI zu ebnen. Artificial intelligence (AI) follows the concept of human intelligence, which unfortunately is not a clearly defined concept. The most common definition, as given in cognitive science as a mental ability, includes the ability to think abstract, logical and deductively and to solve given problems of the real world. A current topic in AI is to find out whether and to what extent algorithms are capable of learning such abstract “thinking” and reasoning similar to humans—or whether the learning outcome is based on purely statistical correlation. In this paper we present a freely available, universal and extensible experimental test environment. These “Kandinsky Patterns”, named after the Russian painter and art theorist Wassily Kandinsky (1866–1944), represent a kind of “Swiss knife” for studying the problems mentioned above. The area that deals with these problems is called “explainable AI” (xAI). Explainability/Interpretability aims to enable human experts to understand the underlying explanatory factors—causality—i.e. why an AI decision was made, thus paving the way for a transparent and verifiable AI.