Stock, JoshuaPetersen, TomBehrendt, Christian-AlexanderFederrath, HannesKreutzburg, Thea2022-06-292022-06-2920222022http://dx.doi.org/10.1007/s00287-022-01440-9https://dl.gi.de/handle/20.500.12116/38767Verfahren des maschinellen Lernens (ML) beruhen auf dem Prinzip, dass ein Algorithmus Muster und statistische Zusammenhänge in Datensätzen erkennt, diese in einem Modell abbildet und das Modell anschließend auf andere Datensätze anwenden kann. Neben den großen Chancen, die maschinelle Lernverfahren mit sich bringen, birgt diese Technologie allerdings auch Risiken für die Privatsphäre, die in diesem Artikel in Form von Privatsphäreangriffen beleuchtet werden. Angriffe wie Model Inversion zielen auf oftmals sensible Informationen ab, die sich während der Trainingsphase eines ML-Algorithmus ungewollt in einem Modell etabliert haben. Wenn Trainingsdaten Personenbezug aufweisen, insbesondere wenn es sich etwa um vertrauliche medizinische Daten handelt, kann dies problematisch für Betroffene sein. Demgegenüber stehen Techniken des privatsphärefreundlichen maschinellen Lernens wie Federated Learning , die eine Risikominimierung für ein breites Spektrum an Privatsphäreverletzungen ermöglichen. Ausgewählte Techniken aus diesem Bereich werden in diesem Artikel ausführlich dargestellt. Dies ist der zweite Teil einer zweiteiligen Artikelserie, deren Auftakt unter dem Titel Grundlagen und Verfahren bereits in der letzten Ausgabe des Informatik Spektrums erschienen ist.Privatsphärefreundliches maschinelles LernenText/Journal Article10.1007/s00287-022-01440-91432-122X