Auflistung Softwaretechnik-Trends 30(1) - 2010 nach Erscheinungsdatum
1 - 10 von 23
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelUsability greifbar machen: Interaktionsanforderungen(Softwaretechnik-Trends Band 30, Heft 1, 2010) Röder, Holger
- ZeitschriftenartikelRegelbasierte Replikationsstrategie für heterogene, autonome Informationssysteme(Softwaretechnik-Trends Band 30, Heft 1, 2010) Niemann, HeinricvhDie Replikation von Daten stellt in heterogenen, autonomen Informationssystemen hohe Anspruche an eine geeignete Replikationsstrategie. So müssen Schreib- und Lesezugriffe auf die Replikate derart koordiniert werden, dass ein optimaler Kompromiss hinsichtlich der konkurrierenden Replikationsziele Verfügbarkeit, Performance und Konsistenz erreicht wird. Dieses Abwägen hinsichtlich der Replikationsziele wird dadurch erschwert, dass die beteiligten Informationssysteme ihre Systemzustände ändern und dass auf diese Veränderungen reagiert werden muss. Für diese Anwendungsbereiche wurden adaptive Replikationsstrategien entwickelt, die sich zur Laufzeit den veränderten Systemzuständen anpassen. In dieser Dissertation wird die regelbasierte Replikationsstrategie RegRess sowie die Regelsprache RRML vorgestellt, die die Formulierung von Replikationsregeln für RegRess ermöglicht. Bei RegRess erfolgt die Koordination für Schreib- und Lesezugriffe auf Basis dieser Regeln, indem vor jedem Zugriff eine Inferenz der Regeln durchgeführt wird, wodurch die von dem Zugriff betroffenen Replikate ermittelt werden. Durch diese Vorgehensweise wird unterschiedlichstes Konsistenzverhalten von RegRess realisiert, insbesondere werden temporäre Inkonsistenzen toleriert. Eine Regelmenge mit für den Anwendungsfall spezifizierten Regeln bildet die Konfiguration von RegRess. Weil in den Regeln Systemzustände berücksichtigt werden können, kann zur Laufzeit das Verhalten angepasst werden. Somit handelt es sich bei RegRess um eine konfigurierbare, adaptive Replikationsstrategie. Mit der Regelsprache RRML können so genannte Reaktionsregeln formuliert werden. Bei einer Regel der RRML wird auf Zugriffe auf Replikationseinheiten, die Teilmengen aller logischen Objekte bilden, reagiert, indem die Bedingung der Regel geprüft wird. Die Bedingung einer Replikationsregel beinhaltet neben Gultigkeitszeiträumen vor allem fachliche und technische Konsistenzbedingungen, die z.B. eine Reaktion auf zeitlichen Verzug der Aktualisierungen oder Nicht-Verfügbarkeit eines Rechners erlauben. Wenn die Bedingung einer Replikationsregel erfüllt ist, dann wird im Aktionsteil der Regel die Zugriffsart auf die Replikate festgelegt. Weil die Replikationsregeln widerspruchliche Aktionen auslösen können, beinhaltet die RRML eine Widerspruchsbehandlung. Zur Realisierung der Replikationsstrategie RegRess dient der Replikationsmanager KARMA, der neben den Protokollen für die Schreib- und Lesezugriffe einen Regelinterpreter für die Replikationsregeln der RRML beinhaltet. Für den KARMA wird eine Softwarearchitektur konzipiert, wobei eine Spezifikation der einzelnen Komponenten des KARMA vorgenommen wird. Ein wichtiger Aspekt bei den Zugriffen auf die Replikate ist die transaktionale Anbindung der beteiligten Systeme. Daher werden Transaktionskonzepte spezifiziert, die bei der Umsetzung der Protokolle benötigt werden. Der Replikationsmanager KARMA ist mittels Plugin-Mechanismus in den Simulator F4SR integriert, der im Rahmen dieser Dissertation entstanden ist. Mit dem F4SR können Replikationsstrategien oder unterschiedliche Konfigurationen einer Replikationsstrategie verglichen werden. So kann beispielsweise das Verhalten hinsichtlich der Replikationsziele Verfügbarkeit, Performance und Konsistenz für verschiedene Regelmengen untersucht werden. Der F4SR bietet für die Analyse verschiedene Diagramme, die die Ergebnisse eines Simulationslaufs illustrieren.
- ZeitschriftenartikelModel-Driven Test Case Construction by Domain Experts in the Context of Software System Families(Softwaretechnik-Trends Band 30, Heft 1, 2010) Bärisch, SteffenDas Schaffen und Sichern der Qualität eines Softwaresystems, also die Erfüllung von Anforderungen beziehungsweise den Bedürfnissen von Kunden, ist eines der vorrangigen Ziele der Softwaretechnik. Ein Ansatz zur Fehlerbehebung wie auch zur Fehlerpravention ist das Testen. Der Model-Driven Test Case Construction (MTCC) Ansatz betrachtet die Konstruktion einer Test-Produktlinie von automatisierten Abnahmetests für bestehende Systemfamilien durch Domänenexperten auf Grundlage von Featuremodellen. Abnahmetests erlauben eine engere Einbindung von Kunden und Domanenexperten in den Softwareentwicklungsprozess und gestatten es, deren Anforderungen in Tests zu formalisieren. Durch die Automatisierung von Tests können das Volumen und die Frequenz des Testens auf ein Niveau gesteigert werden, das durch manuelles Vorgehen nicht erreicht werden kann. Um die Vorteile von Abnahmetests und Testautomatisierung zu kombinieren, verfolgt MTCC das Ziel, Domanenexperten ohne Kenntnisse in der formalen Modellierung oder der Programmierung die Konstruktion von Tests als abstrakte Modelle zu ermöglichen. Um dieses Ziel zu erreichen stellt MTCC einen modellbasierten Editor zur Verfügung. Dieser Editor gestattet auf Grundlage von Modellen der testrelevanten Eigenschaften des jeweiligen Testlings die Konstruktion von Tests mittels einer einfach zu erlernenden, grafischen Umgebung. Neben der Einbeziehung von Domanenexperten betrachtet MTCC insbesondere das Testen im Rahmen von Systemfamilien. Als Grundlage der Testkonstruktion mittels des Editors dienen Featuremodelle und Modelle zu möglichen Interaktionen mit den jeweiligen Testlings. Jedes Featuremodell eines individuellen Testlings ist dabei die Spezialisierung eines übergeordneten Featuremodells zur Beschreibung der Variabilitat der testbaren Funktionalitat innerhalb einer Systemfamilie. Die Ableitung von systemspezifischen Modellen und letztendlich konkreter Tests von einem zentralen Modell erlaubt dabei die Übertragung von Tests zwischen den Systemen einer Systemfamilie. Voraussetzung hierfür ist lediglich, dass der testrelevante Funktionsumfang dieser Systeme, wie durch die Modelle dargestellt, kompatibel ist. MTCC verwendet Codegenerierung, um modellierte Tests fur spezifische Systeme zur Ausführung zu bringen. Durch die Verwendung von Codevorlagen und die Implementierung einfacher Adapter können MTCC Testmodelle in Testcode für beliebige bestehende Systeme transformiert werden. Dieses Vorgehen erlaubt eine systematische Behandlung der semantischen Lücke zwischen Problem und Implementierung, die allen modellgetriebenen Ansatzen inharent ist. Neben der Entkopplung von Semantik und Implementierung vereinfacht die Nutzung der Codegenerierung in MTCC das Testen verschiedener Systeme innerhalb einer Systemfamilie. Insbesondere ist MTCC unabhängig von möglicherweise unterschiedlichen zur Implementierung verwandten Technologien und heterogenen Testschnittstellen in einer Systemfamilie.
- ZeitschriftenartikelAnpassbare RE Werkzeuge – Eine Fallstudie(Softwaretechnik-Trends Band 30, Heft 1, 2010) Eichelberger, Holger; Schmid, KlausDie Anpassung von Anforderungswerkzeugen an den Projektkontext ist im Regelfall durch die Anpassungsfähigkeiten des jeweiligen Werkzeuges stark eingeschränkt. In diesem Beitrag stellen wir einen generativen Ansatz zur Anpassung von Anforderungswerkzeugen vor und demonstrieren den Ansatz im Rahmen einer Fallstudie. Unser Ansatz ermöglicht die einfache, zielgerichtete und weitreichende Anpassung an die Anwendungssituation.
- ZeitschriftenartikelKonferenzbericht zur IWSM/Mensura 2009 - 4.-6. November 2009, Amsterdam, Niederlanden(Softwaretechnik-Trends Band 30, Heft 1, 2010) Dumke, Reiner
- ZeitschriftenartikelKonferenzbericht zur MetriKon 2009 - 18.-20. November 2009, Fraunhofer IESE Kaiserslautern(Softwaretechnik-Trends Band 30, Heft 1, 2010) Dumke, Reiner
- ZeitschriftenartikelCall for Papers: 20th International Workshop on Software Measurement (IWSM2010), DASMA Metrik Kongress (MetriKon2010), International Conference on Software Process and Product Measurement (Mensura2010)(Softwaretechnik-Trends Band 30, Heft 1, 2010) Dumke, Reiner
- ZeitschriftenartikelAnforderungsmanagement und Mitarbeitermotivationå(Softwaretechnik-Trends Band 30, Heft 1, 2010) Kapeller,RolandAnforderungsmanagement und Mitarbeitermotivation weisen einige Parallelen auf, wenn man von einem zielorientierten Ansatz der Mitarbeiterführung ausgeht. Es ist insbesondere für die Leitung anforderungsgetriebener Projekte nützlich zu wissen, wie das Setzen von Mitarbeiterzielen mit dem Anforderungsmanagement zusammenpaßt. Der Beitrag zeigt die wichtigsten Berührungspunkte auf und gibt an, wie in der Praxis die gröbsten Fallstricke vermieden werden können.
- ZeitschriftenartikelModellbasierte erreichbarkeitsoptimierte Rekonfiguration komponentenbasierter Softwaresysteme zur Laufzeit(Softwaretechnik-Trends Band 30, Heft 1, 2010) Matevska, JasminkaOperative Softwaresysteme unterliegen ständigen Veränderungen im Laufe ihres Lebenszyklusses. Sie müssen kontinuierlich den veränderten Anforderungen angepasst werden, um deren Funktionalität bzw. deren Dienste zu erweitern oder zu optimieren. Weiterhin sind Veränderungen unumgänglich, um die Qualitätseigenschaften der Systeme zu verbessern. Schließlich ist es oft notwendig Fehler zu beseitigen. Der Prozess der Durchführung der Veränderungen (Rekonfiguration) führt im Regelfall zum vorübergehenden Ausfall der Systeme. Insbesondere bei geschäftskritischen Web-basierten Anwendungen (z.B. onlinebanking oder Einkaufsportale) kann die fehlende Verfügbarkeit der Dienste zu finanziellen Verlusten führen. Die Sicherung bzw. Erhöhung der Verfügbarkeit der Systemdienste ist das Hauptziel einer Rekonfiguration zur Laufzeit. Weiterhin spielt eine transparente Durchführung einer Rekonfiguration eine entscheidende Rolle für die Zufriedenheit der Benutzer eines Systems. Eine Rekonfiguration kann als transparent betrachtet werden, wenn während deren Durchführung das System innerhalb der vertraglich festgelegten Reaktionsbzw. Antwortzeiten korrekt reagiert bzw. antwortet. Diese Arbeit liefert einen architekturbasierten Ansatz zur Planung und transaktionalen Durchführung einer Rekonfiguration komponentenbasierter Softwaresysteme zur Laufzeit unter voller Verfügbarkeit und möglichst minimaler Beeinflussung der Reaktionsfähigkeit der Systemdienste. Hauptstrategie dabei ist die Verschiebung des Rekonfigurationszeitpunkts bis zu einem optimalen, analytisch bestimmten Zeitpunkt, zu dem die Beeinträchtigung (Störung) des Systems als minimal erwartet wird. Der wissenschaftliche Beitrag besteht aus drei Teilbeiträgen: 1. Anwendungsmodell, das ein ArchitekturSichtenmodell als Grundlage definiert und eine Beschreibung der statischen und dynamischen Sicht einer System-Architektur beinhaltet. Ein sog. Component- Connector-Container (C3) Meta-Modell definiert dabei die strukturelle Zuordnung zwischen den beiden Sichten. 2. Optimierungs- und Analysemodell, das die Grundlage für eine auftragsbezogene Optimierung der Erreichbarkeit bzw. Reaktionsfähigkeit der Systemdienste während der Rekonfiguration durch Analyse der Laufzeit-Abhängigkeiten zwischen Instanzen von Komponenten und Berücksichtigung zusätzlicher Faktoren, wie das Benutzungsmodell des Systems, die Dauer und die Dringlichkeit der Rekonfiguration darstellt. 3. Rekonfigurationsmodell, das durch Lebenszyklus und Redeployment-Protokollen ein detailliertes Konzept für die Durchführung der Rekonfiguration als sog. Redeployment-Transaktion zur Laufzeit definiert und somit eine Erhaltung der Konsistenz des Systems und die volle Verfügbarkeit der Systemdienste während der Rekonfiguration gewährleistet. Für die System-Architekturbeschreibung werden UML 2 Komponenten-, Zustands- und Sequenzdiagramme eingesetzt. Zusätzlich werden Protokollautomaten zur Verhaltensspezifikation von Komponenten eingesetzt. Das Benutzerverhalten wird durch ein Benutzungsmodell dargestellt, wobei Ausführungssequenzen als Markovketten und mit Mengen der beteiligten Komponenten modelliert werden. Diese Informationen werden kombiniert, um eine Analyse der Laufzeitabhängigkeiten durchführen zu können. Zur Berechnung der Laufzeit-Abhängigkeiten werden graphentheoretische Konzepte eingesetzt. Schließlich werden Lebenszyklusprotokolle auf System- und Komponentenebene für die transaktionale Durchführung der Rekonfiguration definiert. Es fand eine zweigeteilte empirische Evaluation statt. Zum Einen, wurde das transaktionale Redeployment für die Java EE Plattform realisiert. Zum Anderen, wurde die Optimierung der Erreichbarkeit der Systeme während der Rekonfiguration von Web-basierten Anwendungen evaluiert. Dabei wird ein probabilistisches Benutzerverhalten simuliert und Monitoringdaten aufgezeichnet. Diese Monitoringdaten werden anschließend zur Analyse der Laufzeitabhängigkeiten eingesetzt, um geeignete Nutzungsszenarien und Zeitpunkte für die Durchführung einer auftragsbezogenen Laufzeit-Rekonfiguration zu bestimmen und zur Laufzeit wieder zu erkennen.
- ZeitschriftenartikelStructural Failure Models for Fault-Tolerant Distributed Computing(Softwaretechnik-Trends Band 30, Heft 1, 2010) Warns, TimoThe dependability of a distributed system strongly depends on the occurrence of faults and on the ability of the system to cope with them. A fault-tolerant system is capable of providing service as expected even if some components have failed. Unfortunately, no system can tolerate arbitrary severe and arbitrary many faults. Engineering faulttolerant systems, therefore, require a fault model that describes the faults to tolerate. A good fault model must be accurate for the relevant aspects of faults, but abstract away irrelevant details. There is empirical evidence that, in particular, dependences and propagation of faults are relevant in real-world systems. In this thesis, we address the questions of how to model such faults and how to tolerate them. For a fault model, we distinguish functional from structural failure models. A functional failure model describes how a component that is failed may behave. A structural failure model describes the extent of component failures. We investigate different classes of nonprobabilistic structural failure models and, in particular, introduce two new ones: set-based models for dependent faults and sequence-based models for dependent and propagating faults. Both classes close a gap between probabilistic models that cover dependent and propagating faults and previous nonprobabilistic models that do not. The new classes and several previous ones are compared with respect to their expressiveness resulting in a comprehensive hierarchy of nonprobabilistic structural failure models. All of the considered previous classes are strictly less expressive than the new set-based class, which is strictly less expressive than the new sequence-based class. For many problems of distributed computing, there exist solutions that rely on quorums and, in particular, on highly available coteries to achieve fault tolerance. We illustrate how to solve distributed computing problems under the new model classes using highly available coteries and probing quorums. More precisely, we give characterisations of highly available coteries that show how to construct such a coterie from a set-based model if a highly-available coterie exists. Considering sequence-based models, we introduce the quality measure refined probe complexity that gives a tight bound on the number of required probes to find a quorum of noncrashed processes or to reveal that no such quorum exists. Additionally, we present a new probe strategy that is defined for all quorum sets and is more efficient in the number of required probes than previous strategies. The considerations of quorums are independent of a particular fault tolerance problem. As a concrete problem, we show how to reach consensus in the presence of faults. In particular, we demonstrate that the new model classes do not require solutions developed from scratch: Adapting and transforming previous solutions for previous model classes suffice to reach consensus. Using the new model classes turns out to be beneficial as it allows more resilient and/or more efficient solutions.
- «
- 1 (current)
- 2
- 3
- »