Auflistung nach Schlagwort "Privacy"
1 - 10 von 66
Treffer pro Seite
Sortieroptionen
- Workshop10. Usable Security und Privacy Workshop – Proposal(Mensch und Computer 2024 - Workshopband, 2024) Lo Iacono, Luigi; Schmitt, Hartmut; Feth, Denis; Heinemann, AndreasZiel der zehnten Ausgabe des wissenschaftlichen Workshops "Usable Security und Privacy" auf der Mensch und Computer 2024 ist es, aktuelle Forschungs- und Praxisbeiträge auf diesem Gebiet zu präsentieren und mit den Teilnehmer:innen zu diskutieren. Getreu dem Konferenzmotto "Hybrid Worlds" soll mit dem Workshop ein etabliertes Forum fortgeführt und weiterentwickelt werden, in dem sich Expert:innen, Forscher:innen und Praktiker:innen aus unterschiedlichen Domänen transdisziplinär zum Thema Usable Security und Privacy austauschen können. Das Thema betrifft neben dem Usability- und Security-Engineering unterschiedliche Forschungsgebiete und Berufsfelder, z.~B. Informatik, Ingenieurwissenschaften, Mediengestaltung und Psychologie. Der Workshop richtet sich an interessierte Wissenschaftler:innen aus all diesen Bereichen, aber auch ausdrücklich an Vertreter:innen der Wirtschaft, Industrie und öffentlichen Verwaltung.
- TextdokumentAchieving Facial De-Identification by Taking Advantage of the Latent Space of Generative Adversarial Networks(INFORMATIK 2021, 2021) Frick, Raphael Antonius; Steinebach, MartinThe General Data Protection Regulation (EU)2016/679 passed by the European Union prohibits any data collection and processing that was conducted without the consent of the individuals involved. Especially images showing faces are often subject to these regulations and therefore, either need to be removed or anonymized. Early approaches however were often troubled by strong visual artifacts. In this work, we propose a novel anonymization pipeline that generates a proxy face for a group of individuals by taking advantage of the semantics of the latent space of generative adversarial networks. Experiments have shown that by following a 𝑘-same approach and utilizing different clustering techniques, privacy for the individuals involved can be greatly enhanced, while preserving important facial characteristics.
- KonferenzbeitragAnalysing user’s privacy preferences in smart-home environments with situational contexts(Open Identity Summit 2023, 2023) Ruff, Christopher; Benthien, Benedict; Orlowski, AlexanderDue to the increasing adoption of smart home devices and technologies, implications for privacy gain importance. In this paper, correlations between specific characteristics of people and their preferences regarding the activity status of components in smart home devices are investigated. In addition, said preferences are analysed for inherent patterns to assist people in their decisions by suggesting preferences, which often occur together. A special focus of this work is the differentiation of preferences according to situational contexts. An online survey was conducted, and the results were analysed. The results imply strong correlations within the preferences and differences in preferences across different contexts.
- KonferenzbeitragAnalyzing PeerFlow – A Bandwidth Estimation System for Untrustworthy Environments(SICHERHEIT 2020, 2020) Mitseva, Asya; Engel, Thomas; Panchenko, AndriyTor is the most popular low-latency anonymization network comprising over 7,000 nodes run by volunteers. To balance the user traffic load over the diverse resource capabilities of these nodes, Tor guides users to choose nodes in proportion to their available bandwidth. However, self-reported bandwidth values are not trustworthy. Recently, a new bandwidth measurement system, PeerFlow, has been proposed aiming to solve the Tor bandwidth estimation problem. In this work, we introduce the first practical analysis of PeerFlow. We proposed a set of strategies for the practical realization of probation periods in PeerFlow and showed that many Tor nodes cannot recover to their normal state after one measuring period. We also demonstrated that low-bandwidth adversaries gain significantly higher bandwidth estimates exceeding the theoretically defined security boundaries of PeerFlow.
- KonferenzbeitragAnreize und Hemmnisse für die Implementierung von Privacy-Enhancing Technologies im Unternehmenskontext(SICHERHEIT 2018, 2018) Harborth, David; Braun, Maren; Grosz, Akos; Pape, Sebastian; Rannenberg, KaiWir untersuchen in diesem Artikel mögliche Anreize für Firmen Privacy-Enhancing Technologies (PETs) zu implementieren, und damit das Privatsphäre- und Datenschutzniveau von Endkonsumenten zu erhöhen. Ein Großteil aktueller Forschung zu Privatsphäre- und Datenschutz (im Weiteren Privacy) wird aktuell aus Nutzersicht, und nicht aus der Unternehmensperspektive geführt. Um diese bislang relativ unerforschte Lücke zu füllen, interviewten wir zehn Experten mit einem beruflichen Hintergrund zum Thema Privacy. Die Resultate unserer qualitativen Auswertung zeigen eine komplexe Anreizstruktur für Unternehmen im Umgang mit PETs. Durch das sukzessive Herausarbeiten zahlreicher Interdependenzen der gebildeten Kategorien leiten wir externe sowie unternehmens- und produktspezifische Anreize und Hemmnisse zur Implementierung von PETs in Firmen ab. Die gefundenen Ergebnisse präsentieren wir anschließend in einer Taxonomie. Unsere Ergebnisse haben relevante Implikationen für Organisationen und Gesetzgeber sowie die aktuelle Ausrichtung der Privacyforschung.
- KonferenzbeitragApp-generated digital identities extracted through Android permission-based data access - a survey of app privacy(SICHERHEIT 2020, 2020) Momen, Nurul; Fritsch, LotharSmartphone apps that run on Android devices can access many types of personal information. Such information can be used to identify, profile and track the device users when mapped into digital identity attributes. This article presents a model of identifiability through access to personal data protected by the Android access control mechanism called permissions. We present an abstraction of partial identity attributes related to such personal data, and then show how apps accumulate such attributes in a longitudinal study that was carried out over several months. We found that apps' successive access to permissions accumulates such identity attributes, where different apps show different interest in such attributes.
- ZeitschriftenartikelBewertung von Anreizen zum Teilen von Daten für digitale Geschäftsmodelle am Beispiel von Usage-based Insurance(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 5, 2018) Streich, Mathias; D’Imperio, Antonio; Anke, JürgenDer Automobilsektor steht vor einem tiefgreifenden Wandel. Fahrzeuge werden unter dem Schlagwort „Connected Car“ zunehmend vernetzt und erzeugen durch Sensoren eine enorme Menge hoch detaillierter und sensibler Daten. Diese Entwicklung schafft die Grundlage für digitale Geschäftsmodelle wie Usage-Based Insurance (UBI). Dabei handelt es sich um Kfz-Versicherungstarife, deren Prämie anhand des Fahrverhaltens des Versicherten bemessen wird. Entsprechend können Versicherte ihren Versicherungsbeitrag (Prämie) senken, sofern sie sicher und unfallvermeidend fahren. Um UBI-Tarife anbieten zu können, benötigen Versicherungen Daten über das Fahrverhalten anhand derer eine Risikoeinschätzung durchgeführt werden kann. Da die Datenschutzbedenken der Bevölkerung jedoch noch immer groß sind, entsteht ein Konflikt zwischen Versicherer und Autofahrer, der die Akzeptanz solcher UBI-Tarife beeinflusst. Dieser Beitrag beschäftigt sich mit der Bewertung verschiedener Anreize zur Auflösung dieses Konflikts. Neben der Systematisierung verschiedener monetärer und nicht-monetärer Anreize wurde die Akzeptanz monetärer Anreize dabei mittels Discrete-Choice Experiment im Zuge einer Umfrage mit 215 Teilnehmern untersucht. Auf diese Weise konnte die notwendige monetäre Kompensation für das Teilen der für UBI-Tarife benötigten sensiblen Daten ermittelt werden. Weiterhin konnte festgestellt werden, dass die Kompensation in Form von indirekt monetären Anreizen wie zusätzliche Funktionen von Assistenz- oder Entertainmentsysteme nur geringe Auswirkungen auf die Akzeptanz von UBI-Tarifen hat. The automotive sector is facing fundamental changes. Vehicles are increasingly networked and become so-called “Connected Cars”. They generate an enormous amount of highly detailed and sensitive data through sensors. This development serves as the basis for digital business models such as Usage-Based Insurance (UBI), in which the premium of a vehicle insurance tariff is determined by the driving behavior of the insured person. Therefore, it is possible to reduce the insurance premium if they drive safely and avoid accidents. In order to be able to offer UBI tariffs, insurance companies need data on the driving behavior based on which a risk assessment can be carried out. However, as the privacy concerns of the consumers are still high, a conflict about the sharing of data arises between the insurer and drivers, which affects the acceptance of such UBI tariffs. This article deals with the evaluation of various incentives to resolve this conflict. In addition to the systematization of various monetary and non-monetary incentives, the acceptance of monetary incentives was examined by means of a discrete-choice experiment as part of a survey with 215 participants. With that, the necessary monetary compensation for sharing the sensitive data required for UBI tariffs could be determined. Furthermore, it was found that the compensation in the form of indirect monetary incentives, such as additional functions of assistance or entertainment systems, has little effect on the acceptance of UBI tariffs.
- ZeitschriftenartikelBeziehungsmarketing aus Kundensicht(Wirtschaftsinformatik: Vol. 49, No. 1, 2007) Treiblmaier, HorstRelationship Marketing from a Customer’s Perspective. Companies need a wealth of personal data in order to address customers in a targeted manner. Utilizing IT enables them to directly address customers in order to increase sales by improving customer retention. The use of personal data becomes problematic when customers decline the use of their data. If companies ignore their customers’ privacy preferences, their chances of retaining them with targeted offers decline. In this paper, we first identify opportunities and drawbacks of individualization measures from a customer’s perspective based on the findings of a qualitative survey. The results of a quantitative survey illustrate how people’s general attitude toward personal data transmission determines their perception of personalization measures.
- TextdokumentDie Blockchain im Spannungsfeld der Grundsätze der Datenschutzgrundverordnung(INFORMATIK 2017, 2017) Marnau, NinjaBlockchain-Technologie und auf ihr basierende Smart Contracts erfahren aktuell große Aufmerksamkeit. Egal ob Finanztransaktionen, eHealth oder eGovernment, für zahlreiche Anwendungsfelder wird der Einsatz von Blockchain-Technologie in Betracht gezogen. In jüngster Zeit mehren sich jedoch auch kritische Stimmen, die die kryptographischen und Konsens-Prinzipien dieser Technologie für unvereinbar mit der Verarbeitung personenbezogener Daten und somit den Grundsätzen des Datenschutzrechts halten. Ziel dieses Beitrags ist es, die Eignung verschiedener Blockchain-Technologien für die Erfüllung der Grundsätze für die Verarbeitung personenbezogener Daten gemäß Artikel 5 der EU Datenschutzgrundverordnung wie u.a. Rechenschaftspflicht, Speicherbegrenzung und Betroffenenrechten zu analysieren.
- KonferenzbeitragBounded Privacy: Formalising the Trade-Off Between Privacy and Quality of Service(SICHERHEIT 2018, 2018) Hartmann, LukasMany services and applications require users to provide a certain amount of information about themselves in order to receive an acceptable quality of service (QoS). Exemplary areas of use are location based services like route planning or the reporting of security incidents for critical infrastructure. Users putting emphasis on their privacy, for example through anonymization, therefore usually suffer from a loss of QoS. Some services however, may not even be feasible above a certain threshold of anonymization, resulting in unacceptable service quality. Hence, there need to be restrictions on the applied level of anonymization. To prevent the QoS from dropping below an unacceptable threshold, we introduce the concept of Bounded Privacy, a generic model to describe situations in which the achievable level of privacy is bounded by its relation to the service quality. We furthermore propose an approach to derive the optimal level of privacy for both discrete and continuous data.