Auflistung nach Schlagwort "Big data"
1 - 10 von 13
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelADAMpro: Database Support for Big Multimedia Retrieval(Datenbank-Spektrum: Vol. 16, No. 1, 2016) Giangreco, Ivan; Schuldt, HeikoFor supporting retrieval tasks within large multimedia collections, not only the sheer size of data but also the complexity of data and their associated metadata pose a challenge. Applications that have to deal with big multimedia collections need to manage the volume of data and to effectively and efficiently search within these data. When providing similarity search, a multimedia retrieval system has to consider the actual multimedia content, the corresponding structured metadata (e.g., content author, creation date, etc.) and—for providing similarity queries—the extracted low-level features stored as densely populated high-dimensional feature vectors. In this paper, we present ADAMpro, a combined database and information retrieval system that is particularly tailored to big multimedia collections. ADAMpro follows a modular architecture for storing structured metadata, as well as the extracted feature vectors and it provides various index structures, i.e., Locality-Sensitive Hashing, Spectral Hashing, and the VA-File, for a fast retrieval in the context of a similarity search. Since similarity queries are often long-running, ADAMpro supports progressive queries that provide the user with streaming result lists by returning (possibly imprecise) results as soon as they become available. We provide the results of an evaluation of ADAMpro on the basis of several collection sizes up to 50 million entries and feature vectors with different numbers of dimensions.
- ZeitschriftenartikelAdaptive Application Performance Management for Big Data Stream Processing(Softwaretechnik-Trends Band 35, Heft 3, 2015) Eichelberger, Holger; Qin, Cui; Schmid, Klaus; Niederée, ClaudiaBig data applications with their high-volume and dynamically changing data streams impose new challenges to application performance management. Efficient and effective solutions must balance performance versus result precision and cope with dramatic changes in real-time load and needs without overprovisioning resources. Moreover, a developer should not be burdened too much with addressing performance management issues, so he can focus on the functional perspective of the system For addressing these challenges, we present a novel comprehensive approach, which combines software configuration, model-based development, application performance management and runtime adaptation.
- ZeitschriftenartikelBig Data(Wirtschaftsinformatik: Vol. 56, No. 5, 2014) Schermann, Michael; Hemsen, Holmer; Buchmüller, Christoph; Bitter, Till; Krcmar, Helmut; Markl, Volker; Hoeren, ThomasMit “Big Data” werden Technologien beschrieben, die nicht weniger als die Erfüllung eines der Kernziele der Wirtschaftsinformatik versprechen: die richtigen Informationen dem richtigen Adressaten zur richtigen Zeit in der richtigen Menge am richtigen Ort und in der erforderlichen Qualität bereitzustellen. Für die Wirtschaftsinformatik als anwendungsorientierte Wissenschaftsdisziplin entstehen durch solche technologischen Entwicklungen Chancen und Risiken. Risiken entstehen vor allem dadurch, dass möglicherweise erhebliche Ressourcen auf die Erklärung und Gestaltung von Modeerscheinungen verwendet werden. Chancen entstehen dadurch, dass die entsprechenden Ressourcen zu substanziellen Erkenntnisgewinnen führen, die dem wissenschaftlichen Fortschritt der Disziplin wie auch ihrer praktischen Relevanz dienen.Aus Sicht der Autoren ist die Wirtschaftsinformatik ideal positioniert, um Big Data kritisch zu begleiten und Erkenntnisse für die Erklärung und Gestaltung innovativer Informationssysteme in Wirtschaft und Verwaltung zu nutzen – unabhängig davon, ob Big Data nun tatsächlich eine disruptive Technologie oder doch nur eine flüchtige Modeerscheinung ist. Die weitere Entwicklung und Adoption von Big Data wird letztendlich zeigen, ob es sich um eine Modeerscheinung oder um substanziellen Fortschritt handelt. Die aufgezeigten Thesen zeigen darüber hinaus auch, wie künftige technologische Entwicklungen für den Fortschritt der Disziplin Wirtschaftsinformatik genutzt werden können. Technologischer Fortschritt sollte für eine kumulative Ergänzung bestehender Modelle, Werkzeuge und Methoden genutzt werden. Dagegen sind wissenschaftliche Revolutionen unabhängig vom technologischen Fortschritt.Abstract“Big data” describes technologies that promise to fulfill a fundamental tenet of research in information systems, which is to provide the right information to the right receiver in the right volume and quality at the right time. For information systems research as an application-oriented research discipline, opportunities and risks arise from using big data. Risks arise primarily from the considerable number of resources used for the explanation and design of fads. Opportunities arise because these resources lead to substantial knowledge gains, which support scientific progress within the discipline and are of relevance to practice as well.From the authors’ perspective, information systems research is ideally positioned to support big data critically and use the knowledge gained to explain and design innovative information systems in business and administration – regardless of whether big data is in reality a disruptive technology or a cursory fad. The continuing development and adoption of big data will ultimately provide clarity on whether big data is a fad or if it represents substantial progress in information systems research. Three theses also show how future technological developments can be used to advance the discipline of information systems. Technological progress should be used for a cumulative supplement of existing models, tools, and methods. By contrast, scientific revolutions are independent of technological progress.
- ZeitschriftenartikelBig Data und Informationsverarbeitung in organisatorischen Entscheidungsprozessen(Wirtschaftsinformatik: Vol. 56, No. 5, 2014) Kowalczyk, Martin; Buxmann, PeterDatenzentrische Ansätze wie Big Data und verwandte Ansätze im Bereich Business Intelligence und Analytics (BI&A) haben in jüngster Zeit viel Aufmerksamkeit auf sich gezogen, da sie versprechen – basierend auf neuen geschäftsrelevanten Erkenntnissen und besseren Entscheidungen – die Leistungsfähigkeit von Unternehmen stark zu verbessern. Die Einbeziehung datenzentrischer Ansätze in die Entscheidungsprozesse von Unternehmen ist herausfordernd und es ist nicht selbstverständlich, dass die erwarteten Nutzen auch realisiert werden. Frühere Studien haben einen mangelnden Forschungsfokus auf den Kontext von Entscheidungsprozessen in datenzentrischen Ansätzen festgestellt. Mittels eines multiplen Fallstudienansatzes werden im vorliegenden Aufsatz unterschiedliche Typen von BI&A-gestützten Entscheidungsprozessen untersucht und die drei folgenden Beiträge gemacht. Erstens wird gezeigt, wie die Facetten von Big Data und verschiede Kompositionen von Mechanismen der Informationsverarbeitung in unterschiedlichen Typen von BI&A-gestützten Entscheidungsprozessen genutzt werden. Zweitens werden neue Erkenntnisse über organisatorische Mechanismen der Informationsverarbeitung und ihre komplementäre Beziehung zu datenzentrischen Mechanismen zur Theorie der Informationsverarbeitung beigetragen. Drittens wird demonstriert, wie die Theorie der Informationsverarbeitung angewendet werden kann, um die Dynamik der Komposition von Mechanismen der Informationsverarbeitung über verschiedene Entscheidungstypen hinweg zu bewerten. Abschließend werden die theoretischen und praktischen Implikationen der Studie diskutiert.AbstractData-centric approaches such as big data and related approaches from business intelligence and analytics (BI&A) have recently attracted major attention due to their promises of huge improvements in organizational performance based on new business insights and improved decision making. Incorporating data-centric approaches into organizational decision processes is challenging, even more so with big data, and it is not self-evident that the expected benefits will be realized. Previous studies have identified the lack of a research focus on the context of decision processes in data-centric approaches. By using a multiple case study approach, the paper investigates different types of BI&A-supported decision processes, and makes three major contributions. First, it shows how different facets of big data and information processing mechanism compositions are utilized in different types of BI&A-supported decision processes. Second, the paper contributes to information processing theory by providing new insights about organizational information processing mechanisms and their complementary relationship to data-centric mechanisms. Third, it demonstrates how information processing theory can be applied to assess the dynamics of mechanism composition across different types of decisions. Finally, the study’s implications for theory and practice are discussed.
- ZeitschriftenartikelEfficient OR Hadoop: Why Not Both?(Datenbank-Spektrum: Vol. 13, No. 1, 2013) Dittrich, Jens; Richter, Stefan; Schuh, StefanIn this article, we give an overview of research related to Big Data processing in Hadoop going on at the Information Systems Group at Saarland University. We discuss how to make Hadoop efficient. We briefly survey three of our projects in this context: Hadoop++, Trojan Layouts, and HAIL.
- ZeitschriftenartikelEinflüsse auf den Implementierungserfolg von NoSQL-Systemen: Erkenntnisse einer quantitativ-empirischen Untersuchung(HMD Praxis der Wirtschaftsinformatik: Vol. 53, No. 4, 2016) Cato, Patrick; Brumm, Simon; Gölzer, Philipp; Demmelhuber, WalterNoSQL-Systeme sind eine neue Generation von Datenbanksystemen, mit denen sich eine Reihe von neuen und innovativen Anwendungsfällen realisieren lässt. Erfahrungsberichte von Praktikern zeigen jedoch, dass die Implementierung von NoSQL-Systemen in der Praxis oftmals komplexitätsbedingt scheitert. Ziel der Studie des Instituts für Wirtschaftsinformatik Nürnberg war es daher, die zentralen Einflussgrößen auf den Implementierungserfolg zu erfassen und empirisch zu validieren. Acht Faktoren haben einen signifikanten Einfluss auf den Implementierungserfolg von NoSQL-Systemen: ausreichende Ressourcenausstattung des Projekts, datengetriebene Entscheidungskultur im Unternehmen, Datenqualität der Quellsysteme, Managementunterstützung, Data Science Fähigkeiten, Laboransatz zur Exploration des Anwendungsfalls, adäquate Technologiewahl sowie Berücksichtigung von datenschutzrechtlichen Aspekten in der Designphase (Privacy by Design).AbstractNoSQL systems are a new generation of data base systems that enable the implementation of new and innovative use cases. However, experience reports from practitioners show that the implementation of NoSQL systems is a complex undertaking and many NoSQL projects fail. This paper summarizes the key results of a study that investigated the central factors that have an impact on the implementation success of NoSQL systems. The study has identified eight factors that have a significant impact: Sufficient resources, data-driven culture, data quality of the sourcing systems, management support, data science skills, proof-of-concept phase, adequate technology selection and privacy by design.
- ZeitschriftenartikelKostenfreie Onlinekurse nachhaltig mit personalisiertem Marketing finanzieren – Ein Vorschlag zur synergetischen Kombination zweier datengetriebener Geschäftsmodelle(HMD Praxis der Wirtschaftsinformatik: Vol. 58, No. 3, 2021) Rüdian, Sylvio; Vladova, GerganaSelbstbestimmtes Lernen mit Onlinekursen findet zunehmend mehr Akzeptanz in unserer Gesellschaft. Lernende können mithilfe von Onlinekursen selbst festlegen, was sie wann lernen und Kurse können durch vielfältige Adaptionen an den Lernfortschritt der Nutzer angepasst und individualisiert werden. Auf der einen Seite ist eine große Zielgruppe für diese Lernangebote vorhanden. Auf der anderen Seite sind die Erstellung von Onlinekursen, ihre Bereitstellung, Wartung und Betreuung kostenintensiv, wodurch hochwertige Angebote häufig kostenpflichtig angeboten werden müssen, um als Anbieter zumindest kostenneutral agieren zu können. In diesem Beitrag erörtern und diskutieren wir ein offenes, nachhaltiges datengetriebenes zweiseitiges Geschäftsmodell zur Verwertung geprüfter Onlinekurse und deren kostenfreie Bereitstellung für jeden Lernenden. Kern des Geschäftsmodells ist die Nutzung der dabei entstehenden Verhaltensdaten, die daraus mögliche Ableitung von Persönlichkeitsmerkmalen und Interessen und deren Nutzung im kommerziellen Kontext. Dies ist eine bei der Websuche bereits weitläufig akzeptierte Methode, welche nun auf den Lernkontext übertragen wird. Welche Möglichkeiten, Herausforderungen, aber auch Barrieren überwunden werden müssen, damit das Geschäftsmodell nachhaltig und ethisch vertretbar funktioniert, werden zwei unabhängige, jedoch synergetisch verbundene Geschäftsmodelle vorgestellt und diskutiert. Zusätzlich wurde die Akzeptanz und Erwartung der Zielgruppe für das vorgestellte Geschäftsmodell untersucht, um notwendige Kernressourcen für die Praxis abzuleiten. Die Ergebnisse der Untersuchung zeigen, dass das Geschäftsmodell von den Nutzer*innen grundlegend akzeptiert wird. 10 % der Befragten würden es bevorzugen, mit virtuellen Assistenten – anstelle mit Tutor*innen zu lernen. Zudem ist der Großteil der Nutzer*innen sich nicht darüber bewusst, dass Persönlichkeitsmerkmale anhand des Nutzerverhaltens abgeleitet werden können. Self-determined learning is increasingly accepted in our society. Online courses offer scheduling flexibility and pacing options, so that the learners can complete their assignments at convenient times. Moreover, online courses can be adapted and individualized to match the learning progress of the users through various adaptations. There is a large target group that aims to develop certain skills with online courses. But their creation, implementation, maintenance, and support are cost-intensive, which means that high-quality tutored courses often have to be offered fee-based to operate at least cost-neutrally without gaining some profit. In this paper, we demonstrate and discuss an open, sustainable, data-driven two-sided business model for using verified online courses and making them available to every learner free of charge. The core of the business model is the use of behavioral data for deriving personality traits and interests, and their use in a commercial context. This method is already widely accepted in web search, which is now implemented in the learning context. The opportunities, challenges, but also barriers that need to be overcome for the business model to be applicable and ethical at the same time are discussed while two independent but synergistically connected business models are presented. Besides, we examined the acceptance and expectation of the target group for the presented business model to understand the necessary core assets for practice. The results of the study indicate that the business model is fundamentally accepted. 10% of the respondents prefer to learn with virtual assistants instead of tutors, and the majority of users is not aware that personality traits can be derived from user behavior.
- ZeitschriftenartikelMethodology for the Implementation of Knowledge Management Systems 2.0(Business & Information Systems Engineering: Vol. 61, No. 2, 2019) Orenga-Roglá, Sergio; Chalmeta, RicardoWeb 2.0 and Big Data tools can be used to develop knowledge management systems based on facilitating the participation and collaboration of people in order to enhance knowledge. The paper presents a methodology that can help organizations with the use of Web 2.0 and Big Data tools to discover, gather, manage and apply their knowledge by making the process of implementing a knowledge management system faster and simpler. First, an initial version of the methodology was developed and it was then applied to an oil and gas company in order to analyze and refine it. The results obtained show the effectiveness of the methodology, since it helped this company to carry out the implementation quickly and effectively, thereby allowing the company to gain the maximum benefits from existing knowledge.
- ZeitschriftenartikelPrescriptive Control of Business Processes(Business & Information Systems Engineering: Vol. 58, No. 4, 2016) Krumeich, Julian; Werth, Dirk; Loos, PeterThis paper proposes a concept for a prescriptive control of business processes by using event-based process predictions. In this regard, it explores new potentials through the application of predictive analytics to big data while focusing on production planning and control in the context of the process manufacturing industry. This type of industry is an adequate application domain for the conceived concept, since it features several characteristics that are opposed to conventional industries such as assembling ones. These specifics include divergent and cyclic material flows, high diversity in end products’ qualities, as well as non-linear production processes that are not fully controllable. Based on a case study of a German steel producing company – a typical example of the process industry – the work at hand outlines which data becomes available when using state-of-the-art sensor technology and thus providing the required basis to realize the proposed concept. However, a consideration of the data size reveals that dedicated methods of big data analytics are required to tap the full potential of this data. Consequently, the paper derives seven requirements that need to be addressed for a successful implementation of the concept. Additionally, the paper proposes a generic architecture of prescriptive enterprise systems. This architecture comprises five building blocks of a system that is capable to detect complex event patterns within a multi-sensor environment, to correlate them with historical data and to calculate predictions that are finally used to recommend the best course of action during process execution in order to minimize or maximize certain key performance indicators.
- ZeitschriftenartikelSmart Government – Partizipation und Empowerment der Bürger im Zeitalter von Big Data und personalisierter Algorithmen(HMD Praxis der Wirtschaftsinformatik: Vol. 54, No. 4, 2017) Guenduez, Ali Asker; Mettler, Tobias; Schedler, KunoAnhand zwei konkreter Fallbeispiele beschreibt der vorliegende Artikel anschaulich wie staatliche Behörden und öffentliche Organisationen die heutigen Potenziale der Digitalisierung und integrierter Sensorsysteme zu nutzen versuchen. Unter dem Stichwort „Smart Goverment“ werden neuartige IT-Initiativen lanciert, welche mehr als „E-Government“ auf eine ganzheitliche Vernetzung von physischen, digitalen, öffentlichen und privaten Lebensräumen abzielen. Dabei spielt die aktive und passive Partizipation von Bürgern und anderen Stakeholdern eine wesentliche Rolle. Nur so können die für die algorithmische Entscheidungsfindung notwendigen Daten generiert werden, welche für die personalisierte Interaktion mit Bürgern oder zur real-time Steuerung öffentlicher Infrastrukturen benötigt werden. Der Artikel schließt mit einer kritischen Diskussion über die Möglichkeiten und Grenzen von Smart Government Initiativen und deren Einfluss auf das Privatleben der Bürger und die öffentliche Politikgestaltung.AbstractBased on two practical case studies this article illustrates how governmental authorities and public organizations try to harness the potentials of digitalization and integrated sensor systems. Even more than past e‑government intiatives, many projects are launched today under the umbrella term “smart government” aiming at connecting physical, digital, public, and private environments. Active as well as passive participation of citizens and other stakeholders plays a pivotal role for generating the necessary data for algorithmic decision algorithms such that personalized interaction and real-time control of infrastructures are possible. This article closes with a critical discussion about the possibilities and boundaries of smart government initiatives and its possible influence on citizen’s private lives and public policy-making.