Auflistung nach Schlagwort "Privatheit"
1 - 7 von 7
Treffer pro Seite
Sortieroptionen
- TextdokumentNatural Language Processing (NLP) und der Datenschutz - Chancen und Risiken für den Schutz der Privatheit(INFORMATIK 2022, 2022) Vogel,Inna; Setz,Tahireh; Choi,Jeong-Eun; Steinebach,MartinMaschinelle Lernverfahren können sowohl Chancen als auch Risiken für die Privatheit von Daten bedeuten. Zum einen können durch Techniken des Natural Language Processings personenbezogene Daten anonymisiert werden und zum anderen können maschinelle Lernmodelle selbst hinsichtlich der Identifizierbarkeit der darin enthaltenen Daten zum Risiko für die Anonymität werden. In dieser Arbeit werden beide Aspekte, auch im Kontext von Angriffen auf die KI, diskutiert und Lösungsansätze besprochen. Sodann wird die datenschutzrechtliche Dimension von Angriffen auf die KI dargestellt und relevante Vorschriften des Entwurfs der Künstlichen-Intelligenz-Verordnung beleuchtet. Denn auch hier stehen sich der datenschutzrechtliche Grundsatz der Datenminimierung und das Interesse am Erhalt der Datenqualität gegenüber - ein scheinbar dilemmatisches Verhältnis.
- ZeitschriftenartikelNutzer präferieren den Schutz ihrer Daten(HMD Praxis der Wirtschaftsinformatik: Vol. 54, No. 1, 2017) Buck, Christoph; Stadler, Florian; Suckau, Kristin; Eymann, TorstenPersönliche Daten und damit die Privatsphäre der Nutzer werden als das „Öl des 21. Jahrhunderts“ bezeichnet und als neue Güterklasse definiert. Im Zuge der zunehmenden Befriedigung von Alltagsbedürfnissen im Rahmen digitaler Anwendungen, umgesetzt durch Vernetzung und Sensorik, bieten sich anhand von bspw. Smart Mobile Devices und mobilen Applikationen zahlreiche Möglichkeiten der Aufnahme, Speicherung und Verwertung personenbezogener Daten. Diese wertvollen Daten geben Nutzer beim Bezug mobiler Applikationen in vielen Fällen ohne vergleichbare Gegenleistung preis. Zahlreiche Forschungsarbeiten konnten bisher nur eine geringe Zahlungsbereitschaft bei Nutzern für den Erhalt ihrer Privatsphäre identifizieren, was die Autoren des vorliegenden Artikels auf die komplexe Beschaffenheit des Wertes von informationeller Privatsphäre zurückführen. Aus diesem Grund wird nicht der monetäre Gegenwert für den Erhalt der Nutzerinformationen, sondern deren Einstufung in der Präferenzordnung beim Bezug mobiler Applikationen gemessen. Die Ergebnisse der durchgeführten Choice-Based Conjointanalyse zeigen eine deutliche Nutzerpräferenz für den Erhalt ihrer Privatsphäre. Die Einstufung des Erhalts von informationeller Privatsphäre als kaufrelevante Eigenschaft von mobilen Applikationen führt zu zahlreichen Implikationen für Forschung und Praxis.AbstractInformation privacy and personal data in information systems are referred to as the ‚new oil‘ of the 21st century. The mass adoption of smart mobile devices, sensor-enabled smart IoT-devices, and mobile applications provide virtually endless possibilities of gathering users’ personal information. Previous research suggests that users attribute very little monetary value to their information privacy. The current paper defines privacy as a complex and abstract value users are not able to put a monetary price tag on. Therefore, the article provides a choice-based conjoint analysis using privacy as one of the four most imortant attributes of mobile applications. The results of the preference structure oft he users emphasize a high relevance in users’ preference structure when downloading an app. Thus, privacy could used as a part of the value proposition of apps sold to privacy-concerned users.
- TextdokumentPATRON - Datenschutz in Datenstromverarbeitungssystemen(INFORMATIK 2017, 2017) Stach, Christoph; Dürr, Frank; Mindermann, Kai; Palanisamy, Saravana Murthy; Tariq, Muhammad Adnan; Mitschang, Bernhard; Wagner, StefanAufgrund der voranschreitenden Digitalisierung gewinnt das Internet der Dinge (IoT) immer mehr an Bedeutung. Im IoT werden Geräte mit Sensoren ausgestattet und miteinander vernetzt. Dadurch werden neuartige Anwendungen ermöglicht, in denen Sensordaten miteinander kombiniert und in höherwertige Informationen umgewandelt werden. Diese Informationen verraten viel über den Nutzer und müssen daher besonders geschützt werden. Häufig hat der Nutzer allerdings keine Kontrolle über die Verarbeitung seiner Daten. Auch kann er das Ausmaß der daraus ableitbaren Informationen nicht ermessen. Wir stellen daher einen neuartigen Kontrollmechanismus vor, der private Informationen im IoT schützt. Anstelle von abstrakten Datenschutzregeln für einzelne Sensoren definiert derNutzer Muster, die geschütztwerden müssen. DerNutzer definiert die zu verheimlichenden Informationen natürlichsprachlich, und ein Domänenexperte setzt diese in formale Regeln um. Sind diese Regeln zu restriktiv, so kann die Anwendung ihre angedachte Funktionalität nicht erbringen. Daher muss bezüglich der Servicequalität ein Kompromiss zwischen gewünschter Privatheit und benötigter Funktionalität gefunden werden.
- ZeitschriftenartikelPrivacy matters(HMD Praxis der Wirtschaftsinformatik: Vol. 58, No. 6, 2021) Kettl, Julian; Schäfer, Klaus; Buchauer, NiklasFinanztransaktionen werden zunehmend online abgewickelt, generell scheinen FinTechs das traditionelle Bankgeschäft zu verdrängen. Damit stellt sich vermehrt die Frage, inwiefern der Schutz personenbezogener Daten bei Online-Finanzdienstleistungen in der Wahrnehmung des Kunden als Differenzierungsmerkmal gesehen werden kann. Welchen Wert haben diese Daten aus Sicht der Bankkunden? Lassen sie sich durch Finanzdienstleister monetarisieren? Der vorliegende Artikel zeigt mithilfe der Präferenzmessmethode Choice-Based-Conjoint-Analyse, dass Studierende im Allgemeinen großen Wert auf den Schutz ihrer Privatsphäre legen und bereit sind, eine deutlich höhere monatliche Grundgebühr zu akzeptieren, wenn ihre Daten ausreichend von dem Zugriff Dritter geschützt sind. Schon wenige, besonders relevante Eigenschaften eines Girokontos (v. a. Datenschutz & Privatheit sowie Grundgebühr) tragen dazu bei, dass sich Studierende für ein bestimmtes Girokonto entscheiden. Der Wert, den Studierende der Privatsphäre beimessen, hängt dabei von verschiedenen Faktoren, wie der Vorerfahrung mit Online-Finanzdienstleistungen oder dem Geschlecht der jeweiligen Person, ab. Financial transactions are increasingly being processed online, and in general, FinTechs seem to be displacing traditional banking. This raises the question of the extent to which the protection of personal data in online financial services can be seen as a differentiating feature in the perception of the customer. What is the value of this data from the bank customers’ point of view? Can financial service providers monetize them? Using the preference measurement method choice-based conjoint analysis, this article shows that students generally attach great importance to the protection of their privacy and are willing to accept a significantly higher monthly fee if their data is sufficiently protected from third-party access. Just a few, particularly relevant characteristics of a current account (especially data protection & privacy as well as basic fee) contribute to the fact that students decide on a specific current account. The value students attach to privacy depends on various factors, such as previous experience with online financial services or the gender of the person concerned.
- TextdokumentPrivacyScore: Analyse von Webseiten auf Sicherheits- und Privatheitsprobleme(INFORMATIK 2017, 2017) Maass, Max; Laubach, Anne; Herrman, DominikPrivacyScore ist ein öffentliches Web-Portal, mit dem automatisiert überprüft werden kann, ob Webseiten gängige Mechanismen zum Schutz von Sicherheit und Privatheit korrekt implementieren. Im Gegensatz zu existierenden Diensten ermöglicht PrivacyScore, mehrere Webseiten in Benchmarks miteinander zu vergleichen, die Ergebnisse differenziert und im Zeitverlauf zu analysieren sowie nutzerdefinierte Kriterien für die Auswertung zu definieren. PrivacyScore verbessert dadurch nicht nur die Transparenz für Endanwender, sondern erleichtert auch die Arbeit der Datenschutz-Aufsichtsbehörden. In diesem Beitrag stellen wir das Konzept des Dienstes vor und wir erörtern, unter welchen Umständen das automatische Scannen und öffentliche „Anprangern“ von Schwächen aus rechtlicher Sicht zulässig ist.
- TextdokumentRisiken für die Privatheit aufgrund von Maschinellem Lernen(INFORMATIK 2020, 2021) Battis, Verena; Graner, LukasMaschinelle Lernverfahren sind aus unserem Alltag fast nicht mehr wegzudenken -selbstlernende Verfahren finden bereits in nahezu allen Bereichen des Lebens Anwendung. In vielen Fällen werden dabei auch private und/oder sensible Informationen verarbeitet. Da selbstlernende Verfahren in der Regel auf sich nicht überschneidenden Datenmengen trainiert und später angewendet werden, ging man lange davon aus, dass es nicht möglich sei, vom finalen Modell Rückschlüsse auf die zum Training verwendeten Daten zu ziehen. Ergebnissen aus der jüngeren Forschung demonstrieren jedoch, dass es sich bei dieser Annahme um einen Trugschluss handelt. Die vorliegende Arbeit erläutert welche Risiken sich für die Privatheit des Einzelnen im Rahmen von maschinellen Lernverfahren ergeben und wie dem unerwünschten Abgreifen von sensiblen Informationen bereits in der Trainingsphase entgegen gesteuert werden kann.
- KonferenzbeitragUsability trifft DSGVO: Wie gehe ich mit sensiblen Daten um? (UPA Arbeitskreis Security & Privacy)(Mensch und Computer 2019 - Usability Professionals, 2019) Jakobi, Timo; Schmitt, Hartmut; Balthasar, Mandy; Zinn, Jessica MiriamSpätestens mit der EU-Datenschutzgrundverordnung (DSGVO) ist das Thema Datenschutz im Berufsalltag vieler Usability Professionals angelangt. Es müssen praktikable und benutzerfreundliche Lösungen gefunden werden, um rechtskonform mit Kundenidentitäten oder mit Einwilligungen zur Verarbeitung personenbezogener Daten umzugehen. Im Workshop wird ein Ansatz vorgestellt, um personenbezogene Daten – z. B. IoT-Daten aus den Bereichen Smart Metering, Smart Home bzw. intelligentes Auto oder Benutzerprofildaten (z. B. Google Takeout) – in einem Dahboard aufzubereiten, zu visualisieren und besser zu verstehen. Hierdurch sollen Anwender und Unternehmen in die Lage versetzt werden, informierte Entscheidungen zu treffen und souverän mit ihren (bzw. den ihnen anvertrauten) personenbezogenen Daten umzugehen.