Context
-Task Description
Gesteigerte Anforderungen an den Einsatz von Datenbanken und Fortschritte im Bereich des Mobile Computings führen zu einer Verdrängung des einfachen Modells der zentralen Datenbank durch das Konzept der Replikation. Benutzer wollen eine ständige und performante Verfügbarkeit ihrer Daten, was einerseits Ausfallssicherheit und fehlertolerante Systeme und andererseits Möglichkeiten der Lastverteilung erfordert.Datenbank-Replikation ermöglicht eine optimale Vernetzung von Informationen über geografisch voneinander entfernte Standorte hinweg. Dadurch wird die Leistung optimiert, weil erforderliche Zugriffe lokal durchgeführt werden können. Für den Datenabgleich in verteilten Systemen über mehrere Datenbanken hinweg ist der Einsatz von Replikationstools notwendig. Zur Sicherstellung der Qualität dieser Replikationstools sind umfangreiche Tests notwendig. Um jedoch aussagekräftige Tests zu erhalten, ist es erforderlich, alle an der Replikation beteiligten Datenbanken mit Testdaten zu befüllen und diese nach erfolgter Replikation auf Konsistenz zu überprüfen. Eine Automation dieser Tests würde sehr viel zur Verbesserung der Qualitätssicherung beitragen. Das wesentliche Ziel dieser Diplomarbeit ist daher die Entwicklung des General Task Schedulers (GTS) als Werkzeug für das automatische Testen der Replikation in heterogenen Datenbanken.Replikationstools arbeiten verteilt, wodurch der General Task Scheduler ebenfalls als verteiltes System realisiert werden musste. Um dies zu ermöglichen wurde die Middleware CORSO eingesetzt.Mit dem General Task Scheduler können von einer zentralen Stelle im Netzwerk aus Testläufe gestartet werden, die in beliebig vielen Datenbanken SQL-Kommandos exekutieren und anschließend verifizieren, ob die Daten mit Hilfe von Replikationstools richtig verteilt wurden. Zusätzlich können Programme an beliebigen Orten im Netzwerk gestartet und deren Ergebnisse überprüft werden. Der Ablauf des Tests wird in Form eines in Python programmierten Skripts spezifiziert.Im ersten Teil der Diplomarbeit werden die theoretischen Grundlagen der verwendeten Technologien und eine detaillierte Analyse der Problematik von heterogenen Datenbanken beschrieben. Außerdem werden bereits vorhandene Vergleichsprodukte vorgestellt und deren Einsetzbarkeit für das Testen der Replikation erörtert. Der zweite Teil der Diplomarbeit beschäftigt sich mit dem Entwurf und der Realisierung des General Task Schedulers. Abschließend stellt eine Zusammenfassung die erzielten Ergebnisse und mögliche Erweiterungen des Systems vor.
(2003 finished)
Requirements
-
Student
Dipl.-Ing. (FH) Christina Schneebauer (please contact eva Kühn)
Supervisor
Dr. Werner Kurschl (please contact eva Kühn)
A.o. Univ.-Prof. Dr. Dipl.-Ing. eva Kühn (please contact eva Kühn)
Related Projects in the Network
- Systematisches Testen von DB Replikation
- Benchmarks und Performance-Evaluierung von Heterogener Datenreplikation
- The Database Replication Coordination Design Pattern
- Testumgebung für PDL Run Time
- Stresstests
- CORSO/CORBA/DCOM Benchmarks
- Middleware Benchmarks
- Comparison of CORSO/CORBA/Java Spaces
- Benchmarking mit Hilfe eines Request/Answer Patterns
- CORSO Evaluation: Performance Study and Business Case
- Vergleich von Middleware Systemen
External Partners
Dr. Werner Kurschl (Fachhochschule Hagenberg, Software Engineering Department)