Sparsame Zeitsynchronisierung von Sensornetzen mittels Zeitreihenanalyse

Die Forschung arbeitet seit Jahrzehnten an der Verbesserung von Sensornetzen. Ein wichtiges Ziel ist es, die Kosten einzelner Sensoren (wie beispielsweise Kameras und Thermometer) so gering wie möglich zu halten, um große Netze mit Tausenden von vernetzten Sensoren zu ermöglichen. Der Nachteil ist dabei: Günstige Sensorgeräte haben beschränkte Energie- und Rechenkapazitäten. Daher sind Methoden, die das Beste aus den begrenzten Ressourcen herausholen, sehr wichtig.

Eine wesentliche Rolle beim Einsparen von Energie- und Rechenkapazitäten spielt die Zeitsynchronisation. Eine enge Synchronisation kann den Energieverbrauch der Knoten reduzieren, indem die funkaktive Zeit verringert wird. Dadurch lässt sich die Lebensdauer erheblich verlängern. Hierzu haben Forscher am Institut für Vernetzte und Eingebettete Systeme der Alpen-Adria-Universität ein neues Synchronisationsverfahren entwickelt. Besonderer Wert wurde darauf gelegt, dass das Verfahren nicht zu viele Ressourcen verbraucht und somit die Vorteile der Synchronisierung nicht zu Nichte macht.

„Stellen Sie sich vor, eine Gruppe von Freunden verabredet sich zu einem Treffen. Üblicherweise einigt man sich auf Ort und Zeit. Nun ist es häufig so, dass nicht alle pünktlich kommen, weswegen der Koordinator des Treffens die zu spät Kommenden anruft und nachfragt. Das bedeutet Aufwand“, erklärt Jorge Schmidt, Postdoc-Mitarbeiter in der Gruppe von Professor Bettstetter. Überträgt man dieses Beispiel auf die von ihm und seinen Kollegen beforschten Sensornetze, bedeutet dieser Aufwand einen Verlust an Energie und Rechenleistung für die einzelnen Sensoren.

Zusammen mit dem Doktoranden Wasif Masood haben Schmidt und Bettstetter nun ein Verfahren entwickelt, das den Zusatzaufwand der Synchronisation zwischen den Oszillatoren der einzelnen Sensoren verringert. Schmidt erläutert dies anhand des Beispiels weiter: „Bei einer Gruppe von Freunden wissen wir von einzelnen bereits, wer üblicherweise zu spät kommt. Daher könnte der Koordinator eines solchen Treffens den einzelnen Freunden unterschiedliche Zeiten nennen, um so das Zuspätkommen abzufangen.

Genau das leistet das neu entwickelte Verfahren: Es lernt mittels Zeitreihenanalyse das Verhalten der Sensoruhren und kann so zukünftige Verschiebungen vorhersagen bzw. korrigieren, bevor es überhaupt zu Asynchronitäten kommt. „Die Idee, das Verhalten zu beobachten und so zukünftige Korrekturen vorherzusagen, ist prinzipiell nicht neu. Wir konnten aber zeigen, dass die Verhaltensmodelle, die wir aus unserer Zeitreihenanalyse herausfiltern, sehr gut für handelsübliche drahtlose Sensorgeräte funktionieren“, erklärt Schmidt.

Das Verfahren wurde sowohl im Labor als auch in der freien Natur unter Temperaturschwankungen mit handelsüblichen Sensorgeräten getestet.

http://www.aau.at

Media Contact

Dr. Romy Müller idw - Informationsdienst Wissenschaft

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Atomkern mit Laserlicht angeregt

Dieser lange erhoffte Durchbruch ermöglicht neuartige Atomuhren und öffnet die Tür zur Beantwortung fundamentaler Fragen der Physik. Forschenden ist ein herausragender Quantensprung gelungen – sprichwörtlich und ganz real: Nach jahrzehntelanger…

Wie das Immunsystem von harmlosen Partikeln lernt

Unsere Lunge ist täglich den unterschiedlichsten Partikeln ausgesetzt – ungefährlichen genauso wie krankmachenden. Mit jedem Erreger passt das Immunsystem seine Antwort an. Selbst harmlose Partikel tragen dazu bei, die Immunantwort…

Forschende nutzen ChatGPT für Choreographien mit Flugrobotern

Robotik und ChatGPT miteinander verbinden… Prof. Angela Schoellig von der Technischen Universität München (TUM) hat gezeigt, dass Large Language Models in der Robotik sicher eingesetzt werden können. ChatGPT entwickelt Choreographien…

Partner & Förderer