Auflistung nach Schlagwort "Verwertungsgesellschaft"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelDie Verwertung von Online-Musiknutzungen – Herausforderungen für die IT(HMD Praxis der Wirtschaftsinformatik: Vol. 53, No. 1, 2016) Mandl, Peter; Bauer, Nikolai; Döschl, Alexander; Grimm, Markus; Wickertsheim, LarsDie Online-Nutzung von Musik ist inzwischen ein wichtiges Geschäftsmodell der Musikbranche geworden und entwickelt sich ständig weiter. Die Zeit der CDs und DVDs wird wohl bald Geschichte sein. Musik wird in Zukunft immer mehr über Online-Anbieter konsumiert, die kontextsensitiv auf persönliche Präferenzen der Konsumenten eingehen. Der Prozess der Lizenzierung und Verwertung der Musiknutzung im Internet ist jedoch ein komplexes Problem, das aus Sicht der Informatik bisher noch wenig untersucht wurde und im Online-Markt eine neue Herausforderung für alle Beteiligten darstellt. Konnte die Abrechnung der Musiknutzungen bis heute über klassische IT-Verfahren überwiegend in Batchprozessen und Datenbank-gestützt erfolgen, so reichen womöglich in Zukunft diese Ansätze nicht mehr aus. Die Komplexität liegt hier neben dem Zusammenspiel der beteiligten Partner vor allem in der laufend wachsenden Datenmenge, die bedingt durch die Online-Nutzung verarbeitet werden muss. So liegt es nahe, für diese Aufgabe Technologien zu untersuchen, die sich für die Verarbeitung großer Datenmengen (Big Data) eignen. Im Rahmen des Forschungsprojekts MPI (Massively Adhoc Processing in the Internet) der Hochschule für angewandte Wissenschaften München wird der Verarbeitungsprozess in Zusammenarbeit mit der GEMA eingehend untersucht. In diesem Beitrag werden erste Projektergebnisse vorgestellt, die für Teilaspekte des Verwertungsprozesses neue Lösungsansätze auf Basis aktueller Technologien erkennen lassen.
- ZeitschriftenartikelErkennung von Duplikaten in Big Data am Fallbeispiel der digitalen Musiknutzung(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 3, 2018) Lindner, Tobias; Mandl, Peter; Bauer, Nikolai; Grimm, MarkusDie Beschreibung von Musikwerken ist heute nicht international genormt und daher kommt es vor allem in der Online-Musiknutzung häufig vor, dass Musikwerke in Online-Plattformen wie Spotify und Apple Music unterschiedlich gespeichert sind. Die Abrechnung von Musiknutzungen ist bei den zuständigen Verwertungsgesellschaften zwar schon seit längerem digitalisiert, aber die Feststellung der Eindeutigkeit von Musikwerken ist nicht ohne weiteres möglich. Dazu bedarf es effizienter Algorithmen zur Objektidentifikation. In dieser Arbeit wird ein Vergleich verschiedener Algorithmen wie Damerau-Levenshtein, Jaro-Winkler, Smith-Waterman u. a. zur Objektidentifikation bei Musikwerken durchgeführt. Da es sich um sehr rechenintensive Algorithmen handelt, haben wir die Algorithmen für eine Massenverarbeitung in einem Apache Hadoop-Cluster unter Nutzung von MapReduce adaptiert. Über einen umfangreichen Vergleichsdatensatz, der mit Apache HBase verteilt gespeichert wurde, haben wir die wichtigsten Algorithmen auf die Qualität der Duplikatserkennung und auf ihre Leistung hin untersucht. Es hat sich gezeigt, dass die sehr häufig verwendete Levenshtein-Distanz nicht am besten abschneidet. Durch den Einsatz anderer Algorithmen, beispielsweise der Jaro-Winkler-Distanz sind bessere Ergebnisse erzielbar und zwar sowohl bei der Zuordnungsqualität als auch bei der Verarbeitungsgeschwindigkeit. Today there is no international standard that specifies the description of a musical work. Therefore online platforms like Spotify or Apple Music store these works using different attributes. So even with a digital billing process that collecting societies use today, it is often difficult to identify a work correctly. Therefore efficient algorithms for object identification are necessary. In this article we compare different algorithms like Damerau-Levenshtein, Jaro-Winkler, Smith-Waterman and others in this context. Since these algorithms are computationally quite expensive, we have adapted them for mass data processing in an Apache Hadoop cluster using MapReduce. Using an extensive set of comparative data, stored with Apache HBase, we examined the most important algorithms for the quality of duplicate recognition and their performance. The results indicate that the frequently used Levenshtein distance does not perform best. By using other algorithms, such as the Jaro-Winkler distance, better results can be achieved in both matching quality and processing speed.