Auflistung nach Autor:in "Battis, Verena"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragHerausforderungen für die Anonymisierung von Daten(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft, 2019) Winter, Christian; Battis, Verena; Halvani, OrenUnternehmen, Wissenschaftler und staatliche Stellen haben ein großes Interesse, neue Erkenntnisse aus Daten zu gewinnen. Dabei müssen Datenschutzregeln eingehalten werden. Anonymisierung ist auf den ersten Blick eine attraktive Lösung, um Datenschutz und Analyseinteressen miteinander zu vereinbaren. Jedoch ist eine korrekte Anonymisierung, die jeglichen Personenbezug entfernt, kaum zu erreichen und schwerlich zu garantieren, wenn gleichzeitig möglichst viel des Informationsgehalts der Daten erhalten werden soll. Wir geben in diesem Aufsatz einen Überblick über den Stand der Technik der Anonymisierung für strukturierte und unstrukturierte Daten, arbeiten die bestehenden Defizite heraus und formulieren Herausforderungen, die auf dem Weg zu besseren Anonymisierungsverfahren gelöst werden müssen.
- Konferenzbeitrag"I Never Thought About Securing My Machine Learning Systems": A Study of Security and Privacy Awareness of Machine Learning Practitioners(Mensch und Computer 2021 - Tagungsband, 2021) Boenisch, Franziska; Battis, Verena; Buchmann, Nicolas; Poikela, MaijaMachine learning (ML) models have become increasingly important components of many software systems. Therefore, ensuring their privacy and security is a crucial task. Current research mainly focuses on the development of security and privacy methods. However, ML practitioners, as the individuals in charge of translating the theory into practical applications, have not yet received much attention. In this paper, the security and privacy awareness and practices of ML practitioners are studied through an online survey with the aim of (1) gaining insight into the current state of awareness, (2) identifying influencing factors, and (3) exploring the actual use of existing methods and tools. The results indicate a relatively low general privacy and security awareness among the ML practitioners surveyed. In addition, they are less familiar with ML privacy protection methods than with general security methods or ML-related ones. Moreover, awareness correlates with the years of working with ML but not with the level of academic education or the field of occupation. Finally, the practitioners in this study seem to experience uncertainties in implementing legal frameworks, such as the European General Data Protection Regulation, into their ML workflows.
- KonferenzbeitragKünstliche Intelligenz und Geldwäschecompliance: Eine Annäherung aus juristischer, soziologischer und technischer Perspektive(INFORMATIK 2024, 2024) Hauler, Timo; Hahne, Michael; Battis, VerenaDer vorliegende Beitrag beleuchtet Chancen und Risiken des Einsatzes eines auf Künstlicher Intelligenz (KI) basierenden Werkzeugs in der Geldwäschecompliance interdisziplinär aus juristischer, soziologischer und technischer Perspektive. Dafür wird zunächst die Inanspruchnahme privater Verpflichteter im Rahmen des geldwäscherechtlichen Pflichtenkatalogs skizziert. Ausgehend von 19 qualitativen Expert:inneninterviews arbeitet der Beitrag dann empirisch die aktuellen (Praxis)Herausforderungen der Geldwäschecompliance heraus und benennt drei Unterstützungspotenziale für den Einsatz eines KI-basierten Werkzeugs: Die Unterstützung bei der Kund:innensegmentierung, die Identifikation neuer und Detektion bekannter meldepflichtiger Sachverhalte sowie die unterstützende Recherche und Auswertung von Kund:inneninformationen. Der Beitrag schließt mit KI-basierten Lösungsansätzen für die Realisierung dieser Unterstützungspotenziale. Insoweit kann einerseits auf überwachte und unüberwachte Lernalgorithmen, andererseits auf die Netzwerkanalyse zurückgegriffen werden. Einer praktischen Umsetzung durch die Verpflichteten stehen gegenwärtig allerdings noch insbesondere die defizitäre Datenqualität sowie der Effizienz-Effektivität-trade-off entgegen.
- TextdokumentRisiken für die Privatheit aufgrund von Maschinellem Lernen(INFORMATIK 2020, 2021) Battis, Verena; Graner, LukasMaschinelle Lernverfahren sind aus unserem Alltag fast nicht mehr wegzudenken -selbstlernende Verfahren finden bereits in nahezu allen Bereichen des Lebens Anwendung. In vielen Fällen werden dabei auch private und/oder sensible Informationen verarbeitet. Da selbstlernende Verfahren in der Regel auf sich nicht überschneidenden Datenmengen trainiert und später angewendet werden, ging man lange davon aus, dass es nicht möglich sei, vom finalen Modell Rückschlüsse auf die zum Training verwendeten Daten zu ziehen. Ergebnissen aus der jüngeren Forschung demonstrieren jedoch, dass es sich bei dieser Annahme um einen Trugschluss handelt. Die vorliegende Arbeit erläutert welche Risiken sich für die Privatheit des Einzelnen im Rahmen von maschinellen Lernverfahren ergeben und wie dem unerwünschten Abgreifen von sensiblen Informationen bereits in der Trainingsphase entgegen gesteuert werden kann.