Leibniz Universität Hannover zur zentralen Website
Konstruktiver Ingenieurbau
Wasser und Umwelt
Geodäsie und Geoinformatik
Weitere Einrichtungen
Kontakt

Kamerakopter als fliegende Vermessungsplattform

GeoWerkstatt-Projekt des Monats Oktober 2017

Projekt: Kamerakopter als fliegende Vermessungsplattform

Forschende:  Unger, Jakob M. Sc. und Sledz, Artuom M. Sc.

Projektidee: 3D-Rekonstruktion mithilfe von (Wärmebild-)Kameras an einem unbemannten Luftfahrtsystem

Der zivile Einsatz unbemannter Luftfahrtsysteme (bezeichnet auch als UAS, Drohne oder Multikopter) nimmt weiterhin zu und kleine, für jedermann erhältliche Hobbygeräte, erfreuen sich großer Beliebtheit. Verschiedenste kommerzielle Anwendungen wie beispielsweise 3D-Rekonstruktion für Visualisierung und Planung, Monitoring, Inspektion, Dokumentation von Kulturerbe, Suche und Rettung sowie Logistik profitieren von den flexiblen Plattformen.

In der Geodäsie und Geoinformatik, genauer in der Photogrammetrie, geht es traditionell um die Vermessung mithilfe von Bildern – egal, ob diese von Kameras an Satelliten, Flugzeugen, Autos oder aus der Hand am Boden aufgenommen werden. Bis vor einigen Jahren gab es dabei allerdings eine Lücke zwischen Kameras die Bilder aus Flugzeugen aufnahmen und Bildern, die vom Boden aus erfasst wurden. In der Photogrammetrie ist es jedoch ein Ziel, die durch die Kamera aufgenommenen Objekte, also z.B. Häuser auch in 3D zu rekonstruieren. Dazu werden Bilder aus unterschiedlichsten Aufnahmerichtungen und von unterschiedlichen Aufnahmepositionen benötigt. Diese werden dann nach dem gleichen Prinzip ausgewertet, wie es unser Gehirn mit den Bildern unserer beiden Augen macht: Wir können in 3D sehen, weil wir Objekte aus leicht unterschiedlicher Richtung mit beiden Augen wahrnehmen und diese je nach Entfernung von einem Bild zum nächsten unterschiedlich stark „versetzt“ erscheinen. Wenn im Fall einer Gebäuderekonstruktion also lediglich vom Boden aus aufgenommene Bilder die Gebäudeseiten zeigen und Luftbilder aus einem Flugzeug das Dach abbilden, fehlen Bilder dazwischen. Diese Lücke schließen unbemannte Luftfahrtsysteme, mit denen man nicht nur aus unterschiedlichsten Höhen und Richtungen Bilder macht, sondern auch aus dichterer Entfernung als vom Flugzeug aus.

Hinzu kommt, dass eine Kamera nicht nur 3D Informationen über Objekte liefert, sondern anhand der Objekte auch abgeleitet werden kann, wo sich die Kamera relativ zum Objekt bei jeder Bildaufnahme befunden hat. Genau wie wir Menschen die Augen benutzen, um Hindernissen auszuweichen, Gegenstände zu greifen, usw. helfen Kamerabilder einem fliegenden Roboter, die Umgebung wahrzunehmen. Davon profitieren am Ende alle oben genannten Anwendungen, was zeigt, wie wichtig der Beitrag der Geodäsie und Geoinformatik dazu ist: Wir untersuchen nicht nur, wie sich die 3D-Rekonstruktion und die Bestimmung der Position und Ausrichtung des unbemannten Luftfahrtsystems mit einer Kamera verbessern lassen, sondern auch, welche Vorteile eine Kamera hat, die statt des für uns Menschen sichtbaren Lichts, Wärme sehen kann. Die Abbildung zeigt eine rein aus Wärmebildern generierte Karte, in der sich einerseits Entfernungen messen lassen, andererseits pro Bildpunkt aber auch Temperaturen angezeigt werden: Grundsätzlich gilt, je heller ein Punkt in der Karte ist, desto wärmer war es dort (siehe z.B. Schornstein, Hausgiebel, geparktes Auto mit noch warmem Motor; absolute Temperatur jedoch maßgeblich von Materialeigenschaften abhängig). Neben der bereits kommerziell durchgeführten Suche von Störungen auf Solarflächen und der Untersuchung von Gebäuden auf fehlerhafte oder unzureichende Isolierungen, sollen in Zukunft weitere Anwendungsmöglichkeiten dieser Technologie als Datengrundlage für die geometrische Auswertung sowie die Möglichkeit, den Bildinhalt automatisch auszuwerten, untersucht werden.