Auflistung nach Autor:in "Pfleiderer, Florian"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragDrying up the data swamp – Vernetzung von Daten mittels iQser GIN Server(Datenbanksysteme für Business, Technologie und Web (BTW 2017), 2017) Pfleiderer, FlorianIn vielen Unternehmen laufen heute heterogene Daten aus vielfältigen Quellen in Data Lakes zusammen, die immer mehr zu Data Swamps verkommen. Oft ist nicht bekannt, was sich in den zahlreichen Datentöpfen befindet und in welcher Qualität die Daten tatsächlich vorliegen. Typische Big Data Technologien wie zum Beispiel Hadoop alleine bieten kaum eine Möglichkeit, diesem Chaos Herr zu werden. Immer mehr Firmen zeigen daher Interesse an kompletten Lösungen, statt eigene Lösungen aufwändig aus einzelnen Technologien zusammen zu stellen. Die iQser GmbH entwickelt mit dem GIN Server eine solche Lösung, die unterschiedliche Ansätze des Data Engineering kombiniert, um verschiedenste Problemstellungen der semantischen Datenanalyse lösen zu können.
- KonferenzbeitragMediaBrain: Annotating Videos based on Brain-Computer Interaction(Mensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?, 2012) Sahami Shirazi, Alireza; Funk, Markus; Pfleiderer, Florian; Glück, Hendrik; Schmidt, AlbrechtAdding notes to time segments on a video timeline makes it easier to search, find, and play-back important segments of the video. Various approaches have been explored to annotate videos (semi) automatically to summarize videos. In this research we investigate the feasi-bility of implicitly annotating videos based on brain signals retrieved from a Brain-Computer Interface (BCI) headset. The signals provided by the BCI can reveal different infor¬mation such as brain activities, facial expressions, or the level of users excitement. This in¬formation correlates with scenes the users watch in a video. Thus, it can be used for anno¬tating a video and automatically generating a summary. To achieve the goal, an annotation tool called MediaBrain is developed and a user study is conducted. The result reveals that it is possible to annotate a video and select a set of highlights based on the excitement information.