Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Passives Application Logging zum Betreiben und Überwachen von komplexen Systemlandschaften

10.11.2009
Die Fokussierung auf Geschäftsprozesse in Unternehmen, ihre Standardisierung (ISO 9001) und Automatisierung ist untrennbar mit dem Siegeszug serviceorientierter Architekturen (SOA) verbunden. Dabei entstehen in der IT verteilte Systeme, die Informationen unterschiedlicher Drittsysteme bündeln. Auf diese greifen wiederum verschiedene Services zu, die jedoch eigene Strukturen beinhalten.

Die Verknüpfung einzelner Systeme mit den Services eines Unternehmens, z. B. die Kundendatenbank, ist sehr tief in die SOA-Strukturen integriert. So muss etwa die Buchhaltung auf Kundendaten ebenso zugreifen, wie der Vertrieb, der Support oder das Marketing. Die Anforderungen an solche Systeme hinsichtlich Verfügbarkeit und Performance wachsen kontinuierlich.

Mit den immer größer werdenden Bandbreiten steigen auch die Datenmengen, die die Systeme zu verarbeiten haben. Durch die Einbindung immer weiterer Prozesse nimmt auch die Zahl der Anfragen zu. Dies kann zu Performanceeinbrüchen führen, die sich in verlängernden Verarbeitungszeiten und Antwortzeiten einzelner Systeme äußern. Performanceprobleme eines einzelnen Systems im Systemverbund können dabei Auswirkungen auf die Performance und Funktionalität anderer Verbundsysteme und damit auch anderer Services haben z. B. aufgrund von auftretenden Timeouts, wie folgendes Beispiel zeigt:

Die Adressdatenbank eines Unternehmens ist im Laufe der Zeit kontinuierlich gewachsen. Die Marketingabteilung plant eine Kampagne, die alle Kunden einbeziehen soll. In diesem Kontext wird unter anderem ein Serienbrief mit einem personalisierten Anschreiben erstellt. Dazu wird zur Abfrage der Anreden und Adressen aller Kunden auf die Kundendatenbank zugegriffen. Das die Kundendatenbank beherbergende System kann durch eine derart umfangreiche Anfrage so stark ausgelastet sein, dass Anfragen von anderen Systemen erst mit einem merklichen Zeitverzug bedient werden. Oder – im ungünstigsten Fall – sogar gar nicht. Die Folgen zeigen sich aber erst durch die Unzuverlässigkeit anderer Services, die die Kundendatenbank zum gleichen Zeitpunkt abfragen mussten. Unter Umständen braucht der entsprechende Prozess erheblich länger als sonst, oder schlägt fehl.

Häufig ist es sehr schwierig in komplexen Systemstrukturen aus dem auftretenden Fehlerbild auf die eigentliche Fehlerursache („Root Cause“) zu schließen. Die Folge: Der Prozess der Fehlerbehebung wird sehr zeit- und kostenintensiv. Es ist also nötig, Netzwerke engmaschig zu überwachen.

Viele Probleme werden durch die Protokollierung von Kenndaten der unteren Protokolllayer („Transport Schicht“) erkannt. Dazu zählen unter anderem die Round Trip Time (RTT), Retransmits und Fragmentierung.

Diese etablierten Methoden stellen sicher, dass die vorhandene Infrastruktur verfügbar und eine Kommunikation zwischen den Komponenten des Systemverbundes grundsätzlich möglich ist. Informationen über den eigentlichen „Nutzverkehr“ werden jedoch nicht geliefert, da dieser auf den höheren Layer („Application Layer“) übertragen wird. Viele Fehlersituationen oder Performance Probleme lassen sich aber nur sinnvoll analysieren, wenn auch der Application Layer ausgewertet wird.

Grundsätzlich liefern die auf den Systemen laufenden Applikationen in ihren Log Dateien Informationen über den Nutzverkehr und aufgetretene Fehler. Die Auswertung von Log Dateien stellt damit ein weiteres Instrument zur Überwachung von Diensten dar. Hierbei gibt es aber grundsätzlich 2 Problemfelder:

Zum einen werden nicht alle notwendigen Informationen von den Applikationen vollständig geloggt bzw. nicht alle Fehlersituationen können durch Log Meldungen komplett abgebildet werden.

Zum anderen wirkt sich die Erhöhung des Log-Levels negativ auf die Leistungsfähigkeit der jeweiligen Systeme aus. Aus Performancegründen muss daher oft auf ein ausführliches Logging verzichtet werden. In diesem Fall haben Betreiber solcher Systeme oft gar keine richtige Möglichkeit an Informationen über den „Nutzverkehr“ zu gelangen, um ggf. eine Fehleranalyse durchzuführen.

Die Lösung für die oben genannten Probleme heißt: Passives Logging.
Passives Logging bedeutet, dass Log Dateien auf Basis des Netzwerkverkehrs ohne Beeinflussung der Systeme und Services erstellt werden. Dabei macht man sich zunutze, dass Netzwerk-Services eine genau spezifizierte Schnittstelle benutzen und die Kommunikation über das Netzwerk genau diesem Protokoll folgen muss. Das Mitschneiden des Netzwerkverkehrs eines zentralen Dienstes eines Unternehmens (z. B. der Kundendatenbank) versetzt das Trace-System in die Lage, die komplette Kommunikation zwischen den Systemen auf der Applikationsschicht zu erfassen. Hieraus können dann alle relevanten in den Requests/Responses enthaltenen Informationen oder auch Fehlerfälle geloggt werden. Es können aber auch nahezu beliebige Performance Daten generiert werden (Response Zeiten, Execution Zeiten, Anzahl Requests/sec …), ohne dabei Einfluss auf die eigentliche Funktionalität und Leistungsfähigkeit des Netzwerkes und des Dienstes zu nehmen. Auf diese Weise kann der Dienst unabhängig von seinem Hersteller lückenlos protokolliert werden. Die Logging-Lösung kann damit genauso mitwachsen, wie der Dienst – selbst wenn der Hersteller einmal gewechselt wird.

Auf Grundlage der Antwortzeit auf jede einzelne Anfrage kann die Leistungsfähigkeit genauso berechnet werden wie die Fehlerhäufigkeit. Bei unternehmenskritischen Anwendungen kann – wo sinnvoll – auch das Auslösen eines Alarms implementiert werden; entweder als SMS-Benachrichtigung an einen Administrator oder indem ein zentrales System etwa per SNMP-Trap alarmiert wird. Grundvoraussetzung für die korrekte Funktion eines solchen Trace-Systems ist das verlustfreie Mitschneiden des Netzwerkverkehrs. Um Applikationsdaten überhaupt nutzen zu können, müssen die je nach Protokoll über mehrere Pakete verteilten Daten wieder korrekt und lückenlos zusammengesetzt werden. Bereits ein einziges verlorenes Paket kann sich zu einem „false positive“ auswirken, also zu einem Alarm führen, der fälschlicherweise ausgelöst wird. In Hochgeschwindigkeitsnetzen stellt dies besondere Anforderungen an die Hardware des Trace-Systems, um den gesamten Netzwerkverkehr komplett (ohne Paketverlust) und vollständig (komplette Payload) erfassen und auf die Platte schreiben zu können.

Wird diese Lösung in mehrfacher Ausführung in einem Unternehmen an mehreren Stellen eines verteilten Systems eingesetzt, kann die Kombination der einzelnen Informationen aus den Loggern – etwa durch eine speziell für diese Aufgabenstellung vorgesehene Appliance – ein wertvolles Plus an Informationen bieten. Dies leistet unter anderem bei der Fehlersuche und der Performance-Optimierung sehr nützliche Dienste, die eine isolierte Betrachtung von Einzelsystemen nicht liefern kann. So können die Durchlaufzeiten der einzelnen Services zueinander in Beziehung gesetzt werden. Dadurch lässt sich die aktuelle Performance des gesamten verteilten Systems beurteilen, die sich nicht zwangsläufig aus der Summe der Einzelsysteme bildet. Zudem kann auf diese Weise vermieden werden, dass die Optimierung eines einzelnen Systems andere Systeme in Mitleidenschaft zieht und dadurch die Gesamtperformance des verteilten Systems sinkt.

Heutige Computersysteme zeichnen sich durch einen hohen Grad an Serviceorientierung aus. Monitoring-Systeme sollten diesem Umstand angepasst werden und Services direkt im Applikation Layer protokollieren und nicht nur die Transportschicht betrachten, um damit die Betreibkarkeit von komplexen Systemlandschaften deutlich zu verbessern.

Martin Nicolay | consistec
Weitere Informationen:
http://www.consistec.de/webinare.html

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Verbesserung des mobilen Internetzugangs der Zukunft
21.07.2017 | IHP - Leibniz-Institut für innovative Mikroelektronik

nachricht Affen aus dem Weltraum zählen? Neue Methoden helfen die Artenvielfalt zu erfassen
21.07.2017 | Forschungsverbund Berlin e.V.

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Einblicke unter die Oberfläche des Mars

Die Region erstreckt sich über gut 1000 Kilometer entlang des Äquators des Mars. Sie heißt Medusae Fossae Formation und über ihren Ursprung ist bislang wenig bekannt. Der Geologe Prof. Dr. Angelo Pio Rossi von der Jacobs University hat gemeinsam mit Dr. Roberto Orosei vom Nationalen Italienischen Institut für Astrophysik in Bologna und weiteren Wissenschaftlern einen Teilbereich dieses Gebietes, genannt Lucus Planum, näher unter die Lupe genommen – mithilfe von Radarfernerkundung.

Wie bei einem Röntgenbild dringen die Strahlen einige Kilometer tief in die Oberfläche des Planeten ein und liefern Informationen über die Struktur, die...

Im Focus: Molekulares Lego

Sie können ihre Farbe wechseln, ihren Spin verändern oder von fest zu flüssig wechseln: Eine bestimmte Klasse von Polymeren besitzt faszinierende Eigenschaften. Wie sie das schaffen, haben Forscher der Uni Würzburg untersucht.

Bei dieser Arbeit handele es sich um ein „Hot Paper“, das interessante und wichtige Aspekte einer neuen Polymerklasse behandelt, die aufgrund ihrer Vielfalt an...

Im Focus: Das Universum in einem Kristall

Dresdener Forscher haben in Zusammenarbeit mit einem internationalen Forscherteam einen unerwarteten experimentellen Zugang zu einem Problem der Allgemeinen Realitätstheorie gefunden. Im Fachmagazin Nature berichten sie, dass es ihnen in neuartigen Materialien und mit Hilfe von thermoelektrischen Messungen gelungen ist, die Schwerkraft-Quantenanomalie nachzuweisen. Erstmals konnten so Quantenanomalien in simulierten Schwerfeldern an einem realen Kristall untersucht werden.

In der Physik spielen Messgrößen wie Energie, Impuls oder elektrische Ladung, welche ihre Erscheinungsform zwar ändern können, aber niemals verloren gehen oder...

Im Focus: Manipulation des Elektronenspins ohne Informationsverlust

Physiker haben eine neue Technik entwickelt, um auf einem Chip den Elektronenspin mit elektrischen Spannungen zu steuern. Mit der neu entwickelten Methode kann der Zerfall des Spins unterdrückt, die enthaltene Information erhalten und über vergleichsweise grosse Distanzen übermittelt werden. Das zeigt ein Team des Departement Physik der Universität Basel und des Swiss Nanoscience Instituts in einer Veröffentlichung in Physical Review X.

Seit einigen Jahren wird weltweit untersucht, wie sich der Spin des Elektrons zur Speicherung und Übertragung von Information nutzen lässt. Der Spin jedes...

Im Focus: Manipulating Electron Spins Without Loss of Information

Physicists have developed a new technique that uses electrical voltages to control the electron spin on a chip. The newly-developed method provides protection from spin decay, meaning that the contained information can be maintained and transmitted over comparatively large distances, as has been demonstrated by a team from the University of Basel’s Department of Physics and the Swiss Nanoscience Institute. The results have been published in Physical Review X.

For several years, researchers have been trying to use the spin of an electron to store and transmit information. The spin of each electron is always coupled...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Den Geheimnissen der Schwarzen Löcher auf der Spur

21.07.2017 | Veranstaltungen

Den Nachhaltigkeitskreis schließen: Lebensmittelschutz durch biobasierte Materialien

21.07.2017 | Veranstaltungen

Operatortheorie im Fokus

20.07.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Einblicke unter die Oberfläche des Mars

21.07.2017 | Geowissenschaften

Wegbereiter für Vitamin A in Reis

21.07.2017 | Biowissenschaften Chemie

Den Geheimnissen der Schwarzen Löcher auf der Spur

21.07.2017 | Veranstaltungsnachrichten