Auflistung nach Autor:in "Gutzke, Thomas"
1 - 10 von 14
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAn Internet – and Knowledge-based Alert-system for Groundwater Disaster Management(Informatics for Environmental Protection - Networking Environmental Information, 2005) Rüppel, Uwe; Gutzke, ThomasTo guarantee a continuous supply of drinking water, the resource “groundwater” is the most common in Germany (about 70%). According to this fact, the demands on water with unobjectionable quality properties are very high. The groundwater body is in particular at risk, if a dangerous situation occurred (e.g. defined pollution in the soil, exceeding of a critical value, technical interferences, danger of flooding). Therefore the correct measures have to be taken immediately to avoid environmental hazards. For those cases, emergency plans have been developed by the governmental authorities, the supply companies and the civil protectors separately. Components of these plans contain the emergency cases itself, the knowledge base, the involved participants and the required measures. A model-based and integrated software support for cases of emergency does not exist at present to notify all involved participants and to provide the essential knowledge about the basic-information and possible measures automatically. This paper describes the rule-based notification extension of the pilot project “Grundwasser-Online” to react on critical situations concerning large-scaled groundwater bodies immediately and with the adequate measures. Therefore a rule-based expert-system with automatic notification-mechanisms and an integrated workflow-system have been implemented. In addition to the defined rules, the emergency-cases with all related participants and the required material for a special decision-support can be described. Also the suggestions for the adequate measures and the kind of real-time notification (system, SMS, eMail) can be defined.
- KonferenzbeitragAn internet-based spatial Decision Support System for Environmental Data(Sh@ring – EnviroInfo 2004, 2004) Rüppel, Uwe; Gutzke, Thomas; Petersen, Michael; Seewald, GerritThe supervision and controlling of the groundwater situation - especially of largescaled catchment areas - is a complex challenge for all involved participants. The negative effects on the environment as a consequence of insufficient cultivation measures can be dramatically. Beside the extensive hydro-geological influencefactors, the non-uniform, non-consistent and non-shared underlying data management due to heterogeneous organisation structures is a major problem. In addition, specific tools for an efficient realtime evaluation of spatial information do not exist. This paper describes a software system, which allows the distribution and sharing of environmental information between all involved participants using the internet, realised by XML- and trigger-based replication mechanisms combined with a granular controlling of access rights. By using the portal [Grundwasser Online 2004], tables, charts and maps (like groundwater contour lines, differences and aquifer depth) can be generated in realtime on the basis of the whole shared data pool. The evaluated information can be visualised in a map server with various GI-functionalities, which offer the engineers of the water supply companies and the responsible governmental agencies the opportunity to initiate active controlling measures.
- KonferenzbeitragDatenlogger-gestütztes Grundwassermonitoring(Workshop des Arbeitskreises „Umweltdatenbanken / Umweltinformationssysteme“ der Fachgruppe „Informatik im Umweltschutz“, 2007) Gutzke, Thomas; Seewald, GerritDeutschland ist aus Sicht der Wasserversorgung ein begünstigtes Land. Über die Ressource Grundwasser wird ca. 70 % des Trinkwasserbedarfs gedeckt. Für die Gewinnung, Aufbereitung und Weiterleitung sind die ortsansässigen Wasserversorgungsunternehmen zuständig. Alle getätigten Förderaktivitäten sowie die Grundwassersituation müssen dabei dokumentiert und ausgewertet werden. Datenlogger übernehmen in diesem Prozess sukzessiv die manuelle und kostenintensive Grundwasserstandserfassung. Der sinnvolle Einsatz von Datenloggern im Bereich Grundwassermonitoring muss jedoch unter verschiedenen Gesichtspunkten analysiert und bewertet werden. Neben finanziellen Aspekten spielt hierbei insbesondere die Problematik der automatisierten Datenübernahme, -prüfung und -filterung eine große Rolle. Nach der Datenübernahme erfolgt die Weiterverarbeitung, Aus- und Bewertung in sogenannten Monitoringberichten, die in regelmäßigen Intervallen an die zuständigen Behörden übermittelt werden müssen. Anhand dieser Berichte, eigener Landesmessstellen sowie der erteilten Wasserrechte erfolgt die Prüfung der Behörden hinsichtlich der Einhaltung maximaler Fördermengen Grenzgrundwasserständen etc., um ggf. steuernd eingreifen können.
- KonferenzbeitragGrafische Darstellung und Editierung sowie versionierbare Speicherung von Massendaten (Big Data)(Umweltinformationssysteme. Wege zu Open Data - Mobile Dienste und Apps, 2013) Reußner, Frank; Gutzke, Thomas
- KonferenzbeitragGroundwater Risk Management Using Data Logger for an Automated Information Retrieval(Managing Environmental Knowledge, 2006) Rüppel, Uwe; Gutzke, Thomas; Göbel, Peter; Seewald, GerritAn extensive groundwater risk management, especially in large-scaled catchment areas, can only be achieved by a continuous observation of the groundwater level and indicating quality parameters. Because of the complexity of hydro-geological systems, the net of measuring points (groundwater gauging stations, climate stations, river gages) in such a catchment area is very dense. The maintenance and processing of the heterogeneous and distributed groundwater information requires a high level of manpower. As an aid, in this situation a specialized groundwater data logger can be used for automated information retrieval. Although data logger have been used for the monitoring of rivers for many years, the benefit of monitoring slow altering groundwater bodies has been controversial. This paper describes the necessity of immediate supervision of groundwater bodies by presenting some critical groundwater situations. Data logger which store groundwater-specific data automatically and in short intervals, have to be integrated in a holistic groundwater management system. Therefore, the logged data has to be transferred, analysed, corrected, filtered and imported. On actual data, the relevant participant can be notified by the system if critical groundwater levels or detrimental effects occur. In addition, the decision makers receive automatically generated examined material and adequate suggestions for the correct countermeasures.
- KonferenzbeitragGrundwasser-Online – Internetbasiertes UIS für Deutschland?(Workshop des Arbeitskreises „Umweltdatenbanken / Umweltinformationssysteme“ der Fachgruppe „Informatik im Umweltschutz“, 2008) Gutzke, ThomasAbstract The management of groundwater resources for the supply of German cities and suburban areas has become a matter of public interest during the last years. Negative headlines dealt with cracks in buildings as well as damaged woodlands and inundated agriculture areas as an effect of varying groundwater levels. At present the required data is logged and stored by each legal authority of each federal state and the local water supply companies since an holistic management of groundwater information does not exist. This paper describes an approach to combine all information witch are related to water supply and groundwater monitoring (e.g., water level, water quality, rainfall, conveyance-masses, drilling profiles). In the south of hessian this approache is already realised – since 2003. Within the internetpotal www.grundwasser-online.de all water supply companies, legal authorities and engineering societies share there data and provide selected data for the public. This paper doesn’t give an answer to the question how this portal can be extended, but it is collecting ideas and points out possibilities.
- KonferenzbeitragHarmonisierung heterogener Grundwasser-Informationsbestände auf Basis eines dynamischen Datenbank-Mappings(Workshop des Arbeitskreises „Umweltdatenbanken“ der Fachgruppe „Informatik im Umweltschutz“, 2005) Rüppel, Uwe; Gutzke, Thomas; Göbel, Peter; Seewald, Gerrit; Petersen, MichaelDie Verwaltung von sich über die Zeit akkumulierenden, großen Datenmengen ist substanzieller Bestandteil moderner Grundwasserbewirtschaftungssysteme und bildet die Grundlage für die analytische Beurteilung und Steuerung der wasserwirtschaftlichen Situation. Im Hinblick auf eine übergreifende Überwachung und Steuerung eines Monitoringgebietes ist die Übernahme hydrogeographisch zusammenhängender Informationsbestände unerlässlich, um auf einer einheitlichen Informationsgrundlage arbeiten zu können. Ein Abgleich der Rohdaten zwischen unterschiedlichen Bewirtschaftungssystemen ist jedoch grundsätzlich mit einem hohen Aufwand für den Export, die Datenaufbereitung und den anschließenden Import verbunden. Besondere Betrachtung erfordern dabei strukturelle Aspekte heterogener Datenhaltung (Datenhierarchien und –Beziehungen) sowie sprachlich-inhaltliche Gesichtspunkte (Synonyme). Das in diesem Beitrag vorgestellte Mapping-System bietet eine Lösung zur Harmonisierung heterogener Grundwasserbewirtschaftungsmodelle mit dem Ziel, unterschiedliche Datenquellenarten mit der Zieldatenbank “Grundwasser-Online“ abzugleichen, um somit eine vollständige Datengrundlage für eine großflächige Grundwasserbewirtschaftung zu erhalten. Getätigte Zuordnungen inhaltlicher Datenkonflikte (Synonyme) sowie das Mapping komplexer Datenstrukturen werden getrennt mittels XML-Schemata gespeichert und stehen – unabhängig voneinander und unabhängig von der Art der Datenquelle – für eine Wiederverwendung bzw. für Erweiterungen zur Verfügung. Durch dieses Verfahren kann die Übernahme und Aktualisierung verteilter Datenbestände gewährleistet, Informationsverluste vermieden und der Aufwand für die Datenaufbereitung minimiert werden. Darüber hinaus wurden Methoden entwickelt, die eine Veredlung der Daten ermöglichen. Über parametriesierbare Rechenoperationen wird dabei die Plausibilität der zu importierenden Daten überprüft und dem Fachanwender zur inhaltichen Korrektur angeboten.
- KonferenzbeitragHerausforderungen bei der Redigierung und Versionierung fortlaufender Massendaten(Informatik 2014, 2014) Gutzke, Thomas; Reußner, FrankIn der Wasserver- und -entsorgung werden über Prozessleitsysteme in den meisten der jeweils über 10.000 Anlagen (Wasserwerken und Kläranlagen) mehrere hundert Datenpunkte aufgezeichnet - und das z. T. im Minutenund Se- kundentakt. Zur Prozessüberwachung, -steuerung und -optimierung werden von zahlreichen dieser Datenpunkte die gesamten Datenreihen kontinuierlich und vollständig aufgezeichnet und regelmäßig ausgewertet. Für eine nachhaltige Bewirtschaftung werden diese Daten nicht nur zur zeitnahen Überwachung und Steuerung benötigt. Für die Beantwortung zahlreicher fachlicher Fragestellungen, sind dieses Daten kontinuierlich und persistent aufzuzeichnen, so dass beispielsweise Entwicklungen über mehrere Jahrzehnte innerhalb einer Auswertung erfolgen können. Da es systembedingt vorkommen kann, dass in den Datenreihen Fehler auftreten (Datenlücken, Ausreißer, Drift) werden Redigierungen erforderlich. Da die Datenreihen sich einerseits kontinuierlich fortschreiben, aber z. T. auch mehrfach redigiert werden müssen, exisiteren hohe Anforderungen an die Redigierungsmöglichkeiten, die Datenarchivierungskonzepte, die Versionierbarkeit und nicht zuletzt an die Performance.. Dieser Beitrag stellt Möglichkeiten einer performanten und gleichzeitig diagrammgestützten Datenredigierung vor. Alle Redigierungsprozesse müssen aus Gründen der Nachvollziehbarkeit versioniert in einem Datenbanksystem abgelegt werden. Insbesondere die Tatsache, dass Datenreihen nie abgeschlossen werden, sondern sich kontinuierlich fortschreiben, stellt hohe Anforderungen an die Performance der Anwendung sowie der Datenbank auf der einen und an die Versionierung aller Redigierungsprozesse auf der anderen Seite. Beide Anforderungen beeinflussen sich dabei gegenseitig negativ. Dieser Beitrag beschreibt die Herausforderungen, die sich hieraus ergeben haben, stellt aber auch einen Ansatz vor, der im ersten Schritt in einer \?einfachen“ aber funktionalen Variante erfolgreich umgesetzt wurde. 1901 In Deutschland wird die Wasserversorgung von ca. 6.500 Wasserversorgungsunterneh- men sichergestellt. Im Bereich der Abwasserentsorgung sind über 10.000 Anlagen in Betrieb. In beiden Bereichen fallen zahlreiche umweltrelevante Daten an, die kontinuierlich erfasst, verwaltet und ausgewertet werden müssen. Die für den Betrieb relevanten Daten werden mittlerweile in den meisten Anlagen über Prozessleitsysteme erfasst. Für die Betreiber dieser Anlagen sind diese Daten wichtig, um einerseits im Rahmen der Berichtspflichten gegenüber den Behörden den fachgerechten Betrieb zu dokumentieren und anderseits einen wirtschaftlichen und ökologischen Betrieb der Anlage durch gezielte Steuerung zu erreichen. Die Daten werden dabei über Sensoren erfasst und meist über Steuerkabel (4-20mA) oder über eine Datenfernübertragung unredigiert an das interne Speichersystem übertragen. Leistungsstarke Prozessleitsysteme ermöglichen auf dieser Basis eine Adhoc-Überwachung aller angeschlossenen Anlagenteile. Viele Anlagen erlauben darüber hinaus eine aktive Anlagensteuerung. Über die letzten Jahrzehnte wurden die Theorien, Techniken und Verfahrensweisen im Betrieb dieser Anlagen so weit verfeinert, dass diese einen sehr hohen Wirkungsgrad aufweisen. Um dies zu erreichen, wurde u. a. ein immer dichteres Datenerfassungsnetz aufgebaut, welches zusätzlich die einzelnen Daten in immer kleiner werdenden Intervallen aufnimmt. Reichten früher Tageswerte aus, so werden heutzutage mehr und mehr Daten im Minuten- und z. T. Sekundentakt erfasst. Die Daten werden in der Regel in einem Ringspeicher abgelegt, wobei die Datenbestände auf Grund ihres Datenumfangs nach festlegbaren Zeiträumen ausgedünnt bzw. überschrieben werden. Die Archivierung erfolgt daher häufig in separaten Zusatzsystemen. Hinsichtlich der Archivierung, Redigierung und Auswertung weisen diese Systeme jedoch große Schwächen auf. Werksmeister und Betriebsleiter stehen regelmäßig vor der Aufgabe, die Anlagenkomponenten in Bezug auf technische Leistungsdaten auszuwerten und effizient einzustellen. Auch die Erstellung von Berichten (z. B. im Rahmen der Eigenkontrollverordnung) erfordert Zugriff auf betriebsrelevante Datenbestände in jährlichen Zyklen. In beiden Fällen muss der Ringspeicher direkt angezapft werden, wobei die Daten i. d. R. vom Ringspeicher nach Excel kopiert und dort manuell weiterverarbeitet werden. Fehler in den Datenbeständen müssen hier z. T. sehr aufwändig und fehleran- fällig korrigiert werden. Die diversen erforderlichen Auswertungen in Form von Diagrammen und Berichten erfordern zudem einen hohen manuellen Zeitaufwand. 1902 Bei dem hier vorgestellten Projekt handelt es sich um eine ausgewählte Komponente des Softwaresystems \?GW-Manager“ - einer Eigenentwicklung der Firma envi-systems GmbH (en14). Das im Jahr 2001 ursprünglich nur für den Bereich der Wasserversorgung entwickelte System kommt zunehmend auch in den Bereichen Abwasserentsorgung/Kläranlagenmanagement für Datenhaltungs- und Auswertungsaufgaben zum Einsatz. Das System setzt an der Schnittstelle zwischen Prozessleitsystem und den Optimierungsaufgaben der Fachanwender an und löst dabei das Problem des Handlings von Massendaten und deren Datenredigierung. Es verfolgt dabei folgende Ziele (siehe Ab- bildung 1): \? Automatisierte Datenübernahme in eine für Massendaten geeignete Datenbank \? Vollständige Langzeitarchivierung aller relevanten Daten \? Visuell unterstützte Datenredigierung \? Variantenbasierte Zeitreihenversionierung \? Bereitstellung komfortabler Analyseund Auswertungsfunktionalitäten Abbildung 1: GW-Manager im Verbundsystem 1903 Die Anforderungen, die an ein System gestellt werden, das Umweltmassendaten sowohl erfasst als auch bearbeitet, sind vielfältig. Nicht selten treten innerhalb einzelner Zeitreihen Fehler auf, die folgende Ursachen haben können: \? falsch kalibrierte Sensoren \? falsch zugeordnete Sensoren \? Stromausfall \? Stromschwankungen \? Alterungserscheinungen oder Verschmutzung von Sensoren (Drifts) Für die Bereinigung dieser Fehler müssen Werkzeuge zur Bearbeitung von Ausreißern, Lückenschließung sowie Trendbzw. Driftbereinigung bereitgestellt werden (siehe Ab- bildung 2). Die Bereinigung sollte zudem visuell unterstützt und performant umgesetzt werden. Daraus folgen Anforderungen an ein System zur visuell unterstützten Datenredigierung, die meist gegenläufige Ziele haben. So wirkt sich z. B. eine Fokussierung auf die benutzerfreundliche Gestaltung der Datenredigierung unter Umständen negativ auf die Performanz des Gesamtsystems aus. Neben einer visuellen Datenkontrolle, die den Benutzer unterstützt, ist eine visuelle Datenbearbeitung (Drag `n Drop) eine weitere wichtige Anforderung. Hinsichtlich der Datenhaltung ist es zudem erforderlich, neben den erfassten Rohdaten auch eine Versionierung der redigierten Datenbestände zuzulassen. 1904 Drift/Trend Ausreißer Lücke Abbildung 2: Erfordernisse der Datenredigierung 4 Versionierung fortlaufender Zeitreihen Ziel einer Versionierung von Zeitreihen ist zum einen die Beurteilung des Qualitätszustands eines Datenpunkts. So kann beispielsweise zwischen Rohdaten oder verifizierten Daten unterschieden werden. Zum anderen ist das Ziel, mögliche Bearbeitungsschritte transparent und nachvollziehbar zu machen. Damit kann z. B. eine Bearbeitung von Datenpunkten bei Bedarf auch rückgängig gemacht werden. Denn häufig stellt sich erst im Nachhinein heraus, dass Annahmen sowie die vorgenommenen Redigierungen falsch waren. Ein Beispiel für eine typische bearbeitete Zeitreihe ist in Abbildung 3 dargestellt. Auf der x-Achse liegen alle erfassten \?Roh“-Daten. Insgesamt wurde die Zeitreihe in sieben einander folgenden Schritten bearbeitet. Alle Bearbeitungen sind in drei Zeiträumen vorgenommen worden. Je nach dem, ob man dabei alle sieben Schritte wieder nachvollziehen bzw. rückgängig machen möchte, folgen verschiedene Ansätze zur Versionierung dieser Zeitreihe. Abbildung 3: Änderungsabschnitte innerhalb einer Zeitreihe (Al12) 1905 Die Herausforderungen bei der Versionierung von Zeitreihen liegen einerseits bei der Performanz und anderseits beim Speicherplatzbedarf, wobei sich beide Aspekte gegenseitig negativ beeinflussen. Bei der Entwicklung des GW-Managers sind für den Aufbau eines Versionierungssystems einige vielversprechende Arten der Versionierung analysiert worden, die diesen beiden Ansprüchen Rechnung tragen. Die klassischen Ansätze zur Datenversionierung beschäftigen sich u. a. mit der platzsparenden Datenhaltung sowie der performanten Datenrecherche (KSW86). Die gängigsten Muster sind: \? Vorwärtsorientiert, o Unterschiede von Version zu Version o Unterschiede von Ursprungsversion zu Version \? Rückwärtsorientiert o Unterschiede von Version zu Version o Unterschiede von Version zu Ursprungsversion \? Vorgang speichern statt Attributänderung in den Unterschieden Eine vielversprechende Art ist z. B. die Erstellung einer Baumstruktur zu jedem Datenpunkt und damit zu einem graphentheoretischen Wald für jede Version der Zeitreihe (siehe Abbildung 4). Hier können dann Varianten aufeinander aufsetzen. So kann beispielsweise bei der Datenredigierung der Workflow abgebildet werden, bei dem als erster Schritt Ausreißer eliminiert werden, als zweiter Schritt Datenlöcher gefüllt und dann Trends/Drifts bereinigt werden. Dabei würde die Trendbereinigung als Variante auf die Daten der anderen beiden Varianten als Basis zurückgreifen. Abbildung 4: Hierarchische Datenstruktur von Zeitreihenabschnitten (Al12) Jeder Ansatz hat seine Vorund Nachteile in Bezug auf Redundanz und Komplexität der zu erstellenden Version. Außerdem haben die Arten auch unterschiedliche Anfälligkeiten bezüglich möglicher Konflikte durch Verklemmung (Deadlock). Allen gemeinsam ist aber, dass sie entwickelt wurden, um einen bestehenden Datenblock zu versionieren. 1906 Die zu versionierenden Zeitreihen sind jedoch keine abgeschlossenen Datenblöcke, son- dern werden fortlaufend erweitert, da die Sensoren und Logger auch fortlaufend neue Daten erheben. Durch diesen Umstand ist eine Zuordnung der neu hinzukommenden Daten zu einer bestimmten Version nicht eindeutig. Eine andere Art der Variantensysteme ist z. B. die Quellcodeverwaltung (z. B. SVN, GIT). Auch diese sind wenig geeignet fortlaufende Zeitreihen adäquat zu versionieren. Dies liegt daran, dass bei einer Zeitreihe die einzelnen Daten mehr gemeinsamen Bezug besitzen, als die Dokumente bzw. Textzeilen bei einer Quellcodeverwaltung. Beispielsweise beziehen sich Schritte zur Datenbereinigung auf dieselben Daten (Ausreißermit Trendbereinigung). Dies ist aber im Kontext einer Quellcodeverwaltung nicht abbildbar, da dort die zweite Änderung die Daten absolut verändert. Würde man in dem Beispiel erst die Trendbereinigung durch- führen und dann die Ausreißerbereinigung, dann könnte man zwar die letzte Bereinigung zurücknehmen, nicht aber nur einzeln die Trendbereinigung. Die folgende Tabelle 1 zeigt eine Bewertungsmatrix der unterschiedlichen Variantensysteme in Bezug auf fortlaufende Zeitreihen. Legende: e u t e n ++: geeignet t z - n l a g Da p s e + : bedingt geeignet ig en er er un ck g n n n en - : eher ungeeignet h rf lo d ä s io rd b eic a h o o --: ungeeignet p ed b er u h S b Dea A V Z er Versionsabschnittsbildung + ++ + ++ an einer Zeitreihe Autarke Variantenbildung -- ++ - -- Hierarchische Variantenbildung + - ++ + Variantenbildung ++ - + + mit Bezug auf n-Varianten Quellcodeverwaltung + + -- - Tabelle 1: Vorund Nachteile der Zeitreihen-Versionierungsstrategien 5 Projektstand Bei der Umsetzung des Projekts wurde ein Schwerpunkt auf die Performanz gelegt, so dass der Benutzer effizient mit seinen Massendaten arbeiten kann. Hierfür wurden aus dem Bereich des Big Data die klassischen Werkzeuge analysiert. Durch die Anforderungen der Interaktion ist aber keines der gängigen Big Data Werkzeuge für dieses Projekt einsetzbar. Die Werkzeuge \?Hadoop“, \?Big Table“, \?Map Reduce“ etc. sehen alle den Informationsfluss in eine Richtung vor, so dass zwar schnell Daten-Aggregationen aus- 1907 geführt werden können (DG08), der Informationsfluss zurück in die Datenhaltung je- doch nicht vorgesehen ist bzw. keine Vorteile gegenüber herkömmlichen Werkzeugen (wie relationalen Datenbanksystemen) aufweist. Aus diesem Grund wurde das bestehende Datenhaltungssystem des GW-Managers (ein relationales Datenbanksystem auf Basis des Microsoft SQL-Servers oder alternativ Oracle) genutzt, das bereits alle wesentlichen Aufgaben erfüllt. Hinsichtlich der Verarbeitung von Massendaten, wurde die Datenbank sukzessive optimiert. Hierbei wurden insbesondere die Tabellen-Indexierung sowie die Auslagerung von SQL-Abfragen in Stored Procedures stark ausgebaut: Die Optimierungen, die vorgenommen wurden, sind zum einen die Überprüfung der Indizes einzelner Tabellen, vor allem jedoch die Optimierung aller SQL-Abfragen. Neben der Syntax der SQL-Abfragen konnte durch die Verlagerung der Abfrage aus dem Programmcode in die Datenbank selbst - als Stored Procedure - die Geschwindigkeit der Abfrage um den Faktor 15 erhöht werden. Auch hat sich herausgestellt, dass im Programmcode selbst (.Net 4.5) noch eine Reihe von Optimierungsmöglichkeiten liegt. Trotz der in .Net 4.5 enthaltenen Garbage- Collection (GC) ist die Datenhaltung der Zeitreihen halbautomatisch implementiert worden. So wird zwar die GC normal von der Anwendung genutzt, wenn aber Zeitreihen entfernt werden, wird explizit die GC angesteuert, so dass der Speicher schnellstmöglich freigegeben wird. Dies ist erforderlich, da .Net-Anwendungen immer nur einen limitierten Hauptspeicher belegen dürfen. Bei 32-bit Betriebssystemen (die das Projekt auch bedienen soll) sind dies ca. 1,5 GByte maximale Speicherbelegung. Ein weiterer wichtiger Schritt der Umsetzung lag in der Suche nach einem geeigneten Chart-Werkzeug. Hier hat sich gezeigt, dass die meisten Hersteller von sich aus nicht angeben, mit wie vielen Datenpunkten das Werkzeug noch effizient bedienbar ist. Lediglich einige Werkzeuge sind auf den Einsatz von Massendaten (> 500.000 Datenpunkten) ausgelegt. Die Wahl ist auf das Werkzeug TeeChart von Steema gefallen (St13). Hier sind mit den aktuellen Tests keine Performanzprobleme mit großen Zeitreihen aufgetreten. Auch eine Bearbeitung mittels Drag `n Drop kann durchgeführt werden. 6 Fazit und Ausblick Das hier vorgestellte Projekt ist abgeschlossen und wird bereits produktiv eingesetzt. Die Massendaten können dabei direkt aus den Sensoren und Loggern in das relationale Da- tenbanksystem des GW-Managers importiert werden. Auch können Prozessleitsysteme angebunden werden, so dass alle wasser- sowie abwasser-relevanten Daten vollständig verfügbar sind. Mit dem Schritt der Datenerfassung in das bestehende Datenhaltungssystem, wurden alle Anforderungen bezüglich Datenarchivierung erfüllt. Dabei mussten jedoch zahlreiche Datenbankoptimierungen vorgenommen werden, um die Performance zu verbessern. Die Verbesserung von Indexierungen sowie der Einsatz von Stored Procedures führten hierbei zu Performance-Steigerungen um den Faktor 15. Die Komponente zur Datenredigierung wurde fertiggestellt, so dass hier nun leistungsstarke Funktionalitäten zur Verfügung stehen (siehe Abbildung 5). Die Komponente verfügt über Werkzeuge zur Datenredigierung (z. B. Datenübernahme aus anderen 1908 Messstellen, lineare Trendbereinigung), direkte grafische Datenbearbeitung (Drag `n Drop) und komfortable Datenvisualisierung (Zoom, Diagrammtyp Linie, Balken und Punkt etc.). Zur Datenanalyse sind verschiedene Statistiken (Mittelwert, Varianz, gleitendes Mittel usw.) oder automatisierte Berichte ad-hoc erstellbar. Abbildung 5: Datenredigierung mit dem GW-Manager Die Versionierung redigierter Zeitreihen wurde in einer ersten \?einfachen“ Variante realisiert. Die gewählte Variante unterstützt dabei lediglich eine Versionsebene. Die in diesem Beitrag vorgestellte \?Baumstruktur“ (siehe Abbildung 4) soll Gegenstand zu- künftiger Entwicklungen sein. Bei allen Weiterentwicklungen muss dabei die Wechselbeziehung zwischen einer performanten Datenbank-Anwendung und den hohen Anforderungen an eine fortlaufende Versionierung berücksichtigt werden. 1909 Literaturverzeichnis [Al12] Albrecht, Andreas: Entwicklung eines Prototyps zur hochperformanten grafischen Darstellung, Editierung und versionierbaren Speicherung von Massendaten. Abschlussarbeit Hochschule Darmstadt. Darmstadt, 2012. [DG08] Dean, J.; Ghemawat, S.: MapReduce: simplified data processing on large clusters. Communications of the ACM, $51(1)$, S.107-113. New York, 2008. [en14] envi-systems GmbH: GW-Manager, Available at
- KonferenzbeitragOnline-Processing of 21⁄2 — Dimensional Groundwater Maps(The Information Society and Enlargement of the European Union, 2003) Rüppel, Uwe; Gutzke, Thomas; Petersen, Michael; Seewald, GerritAuf Grund der Komplexität von hydrogeologischen Systemen, vieler beteiligter Unternehmen und Institutionen und nicht zuletzt der fehlerbehafteten und lückenhaften Datengrundlage, existieren für große Grundwassereinzugsgebiete i.d.R. keine einheitlichen, unternehmensübergreifenden Bewirtschaftungskonzepte. Dieser Beitrag beschreibt das Pilotprojekt 'Grundwasser-Online' (www.grundwasser-online.de), welches sich zum Ziel gesetzt hat, die Grundwassersituation in kritischen Regionen zeitnah zu erfassen, zu überwachen und zu bewerten sowie steuernd darauf einzuwirken. Dazu wird ein internetbasiertes Bewirtschaftungssystem etabliert. Eine wesentliche Methode zur fachgerechten Auswertung der Grundwassersituation stellt dabei die Auswertung von flächenhaften 21⁄2-dimensionalen Karten, in Form von Grundwassergleich-, Differenzenund Flurabstandsplänen dar, die mit dem vorgestellten System automatisiert mit internet-basierten Software-Modulen gebietsübergreifend generiert werden können.
- KonferenzbeitragPublishing and Distribution of Environmental Information in Civil Engineering Based on Spatial Metadata Description(Informatics for Environmental Protection - Networking Environmental Information, 2005) Seewald, Gerrit; Petersen, Michael; Gutzke, ThomasThis article introduces a new approach of managing and (pre-) processing spatial data in heterogeneous software and network environments. Within a joint research project between the Technical University of Darmstadt and the CIP Engineering Ltd. a prototype - covering the publishing, the internet-based distribution and the subsequent access to the relevant spatial and environmental information in civil engineering - has been developed. The description and management of the required information is implemented using an ISO 19 115 conform data model. Due to the holistic approach of this standard a broad exchange of the collected Metadata across regional and national borders is guaranteed. Furthermore this structured data pool can be used as a meta-search engine for alpha-numerical, space- and time-dependent requests. As a result of these requests, access to the original data can be provided using a 2-tier service- oriented architecture (SOA) based on webservice technology.