Auflistung nach Autor:in "Kreutzburg, Thea"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelPrivatsphärefreundliches maschinelles Lernen(Informatik Spektrum: Vol. 45, No. 2, 2022) Stock, Joshua; Petersen, Tom; Behrendt, Christian-Alexander; Federrath, Hannes; Kreutzburg, TheaMaschinelle Lernverfahren finden seit einigen Jahren in immer mehr Bereichen vielfältige Anwendung, wodurch die Relevanz der dabei verwendeten Techniken deutlich wird. Unter dem Begriff des maschinellen Lernens (ML, oft auch „künstliche Intelligenz“) existieren zahlreiche Algorithmen, die unterschiedliche Komplexität und verschiedene Eigenschaften mit sich bringen. Für das Training dieser Algorithmen sind meist große Mengen an Daten notwendig. Insbesondere bei der Verwendung von personenbezogenen Daten stellen sich hierbei Fragen rund um den Datenschutz und die Privatsphäre von Betroffenen. Dies ist der erste Teil eines zweiteiligen Artikels zum Thema privatsphärefreundliches ML. Dieser erste Teil bietet einen leicht verständlichen Einstieg in das Thema des ML und geht dabei auf die wichtigsten Grundbegriffe ein. Außerdem werden einige der meistverwendeten ML-Verfahren, wie Entscheidungsbäume und neuronale Netze, vorgestellt. Im zweiten Teil, der in der kommenden Ausgabe des Informatik Spektrums erscheint, werden Privatsphäreangriffe und datenschutzfördernde Maßnahmen im Kontext von ML behandelt.
- ZeitschriftenartikelPrivatsphärefreundliches maschinelles Lernen(Informatik Spektrum: Vol. 45, No. 3, 2022) Stock, Joshua; Petersen, Tom; Behrendt, Christian-Alexander; Federrath, Hannes; Kreutzburg, TheaVerfahren des maschinellen Lernens (ML) beruhen auf dem Prinzip, dass ein Algorithmus Muster und statistische Zusammenhänge in Datensätzen erkennt, diese in einem Modell abbildet und das Modell anschließend auf andere Datensätze anwenden kann. Neben den großen Chancen, die maschinelle Lernverfahren mit sich bringen, birgt diese Technologie allerdings auch Risiken für die Privatsphäre, die in diesem Artikel in Form von Privatsphäreangriffen beleuchtet werden. Angriffe wie Model Inversion zielen auf oftmals sensible Informationen ab, die sich während der Trainingsphase eines ML-Algorithmus ungewollt in einem Modell etabliert haben. Wenn Trainingsdaten Personenbezug aufweisen, insbesondere wenn es sich etwa um vertrauliche medizinische Daten handelt, kann dies problematisch für Betroffene sein. Demgegenüber stehen Techniken des privatsphärefreundlichen maschinellen Lernens wie Federated Learning , die eine Risikominimierung für ein breites Spektrum an Privatsphäreverletzungen ermöglichen. Ausgewählte Techniken aus diesem Bereich werden in diesem Artikel ausführlich dargestellt. Dies ist der zweite Teil einer zweiteiligen Artikelserie, deren Auftakt unter dem Titel Grundlagen und Verfahren bereits in der letzten Ausgabe des Informatik Spektrums erschienen ist.