Abschlussarbeiten

Fakultät Geoinformation

Abschlussarbeiten

Aufbereitung von Geodaten oder digitalen Bauwerksmodellen für virtuelle Welten von Adhoc-Konferenzsystemen am Beispiel von WorkAdventure

Masterarbeit von Viet Tien Le (2021)

Im Zuge der Corona-Pandemie sind digitale Kommunikationswerkzeuge weiter stärker in den Fokus gerückt. Dabei sind die Nutzerzahlen von klassischen Konferenzsystemen, wie z.B. Zoom, stark gewachsen. Doch solche statischen Systeme besitzen zwei wesentliche Nachteile, die fehlende Möglichkeit für spontane, informelle Unterhaltungen und das Auftreten des Phänomens "Zoom-Fatigue" bei regelmäßiger Anwendung. Als Lösung dieser Probleme können Adhoc-Konferenzsysteme dienen. Diese erweitern statische Konferenzsystem um eine räumliche Komponente in Form von virtuellen Welten, welche diese Probleme beheben bzw. abmindern. In dieser Arbeit soll am Beispiel Work Adventure aufgezeigt werden, wie die virtuellen Welten auf Basis von BIM-Modellen erzeugt werden kann.

Um diese Frage zu beantworten, ist eine prototypische Implementierung entworfen und erstellt worden, welche einen möglichen Ansatz zur Erstellung der Karten aufzeigt. Zur Beurteilung des Prototyps sind die erzeugten Karten anhand von definierten Bewertungskriterien evaluiert und daraus etwaige Einschränkungen geschlussfolgert.

Um die Zielstellung zu erreichen, erfasst die Anwendung nur die relevantesten Bauteile aus dem IFC-Modell und wandelt diese in geometrische Objekte, welche anschließend als Basis für die Kartenerstellung dienen. Konkret ist die Implementierung auf drei unterschiedliche IFC-Modelle angewendet worden und die erzeugten Resultate bewertet.

Die Bewertung der Karten zeigt, dass auf Grundlage eines Stockwerks aus einem IFC-Modell die erzeugte Karte den Grundriss zu einem hohen Grad nachbildet. Dabei wird sichtbar, dass die Komplexität der Modelle Einfluss auf die Replikation hat. Daraus resultieren Fehler in der Karte bei der Rekonstruktion des Geschosses von Modellen mit vergleichsweiser hoher Komplexität. Aus den beobachteten Mängeln lassen sich Grenzen und Einschränkungen der Implementierung formulieren. Aus technischer Sicht funktioniert die gewünschte Verwendung der Karten auf Work Adventure zu weiten Teilen ohne Probleme. Allerdings handelt es sich bei den generierten Karten von Nachbildung des Rohbaus eines Stockwerks. Ob die Karten in dieser Form aus Nutzer*in-Perspektive als virtuellen Raum für Work Adventure genutzt werden können oder diese noch manuell gestaltet werden müssen, ist eine Frage für zukünftige Forschungen.

BIM-Modelle als Datengrundlage
BIM-Modelle als Datengrundlage
Gestaltete WorkAdventure-Karte auf Basis der erzeugten Tilemaps
Gestaltete WorkAdventure-Karte auf Basis der erzeugten Tilemaps

Erzeugung von großmaßstäbigen Umgebungsmodellen für physische 3D-Modelle mit subtraktiven Verfahren (Laser-Cutter) – Vermessung, Modellierung und Validierung

Bachelorarbeit von Ferdinand Rindt (2021)

Einzelne Fakultätsgebäude der Hochschule für Technik und Wirtschaft Dresden wurden mit­tels eines 3D-Druckverfahrens im Maßstab 1:250 angefertigt. Langfristig sollten diese Mo­delle in einem Gesamtmodell des HTW-Campus, auch im Maßstab 1:250, dargestellt werden.

Dabei wurde das subtraktive Herstellungsverfahren Laser-Cutten den ähnlichen Verfah­ren CNC-Fräsen und 3D-Druck vorgezogen. Während der vorrausgegangenen Arbeiten stellte sich die Frage, ob auch physische dreidimensionale Umgebungsmodelle durch einen Laser-Cutter herstellbar wären. Es wurde ein Realweltobjekt gewählt, welches eine geografi­sche Verbindung zur Hochschule für Technik und Wirtschaft besaß, man entschied sich für den Beutlerpark, da dieser einen starken Wiedererkennungswert anhand seiner höhenmä­ßigen Anstiege und Strukturen in einem Modell hätte. Um es auch in Verbindung mit dem Campus-Modell präsentieren zu können, wurde auch dafür der Maßstab 1:250 gewählt.

Es musste sich für eine der drei geometrischen Repräsentationsformen Raster, Höhenlinien oder Dreiecksvermaschung (TIN) als Grundlage der weiteren Bearbeitung entschieden werden, man entschied sich schlussendlich für Höhenlinien. Bei der Aufbereitung der Daten wurden die bekannten Datentypen Vektor und Gravur des Laser-Cutters bereits bedacht und Überlegungen angestellt, welche sich für die Herstellung eignet und mit welchen Verfahrens­weisen die unterschiedlichen Schichten erstellt werden könnten. Es wurde aufgezeigt, dass es möglich ist, 2D-Modelle und physische 3D-Modelle mithilfe eines Laser-Cutters herzu­stellen. Dabei wurde einerseits die Herstellung nur durch Linien (Vektoren) und andererseits durch Flächen (Gravuren) betrachtet und praktisch durchgeführt. Die Ergebnisse der Bear­beitung nur mit Vektoren waren nicht erfolgreich. Es gelang nicht, die Schnitte so eng zuei­nander durchzuführen, dass keine Zwischenwände mehr erhalten blieben. Außerdem war schon bei größeren Abständen die thermische Belastung für das Material zu hoch, so dass die Versuche abgebrochen werden mussten. Aus diesen Gründen wurden diese beiden Kon­zepte des Linien-Cut-Verfahrens als nicht zielführend angesehen. Die Herstellung auf der Grundlage von Gravuren lieferte gute Ergebnisse und wurde für die weitere Fertigung des physischen 3D-Modelles genutzt. In den Einstellungen des Laser-Cutters war es nicht mög­lich, eine genaue Schneidetiefe und Laserstrahlbreite zu definieren. Diese mussten aus einer Kombination der verwendbaren Einstellungen Leistung, Geschwindigkeit, Frequenz, Auflö­sung und Anzahl der Durchläufe ermittelt werden. Falls durch ein kontinuierliches Erhöhen bzw. Verringern einzelner Einstellungen eine äquivalente Erhöhung der Schneidetiefe erkenn­bar wäre, sollte eine Näherungsformel dafür aufgestellt werden. Jedoch erhielt man bei identischen Einstellungen unterschiedliche Ergebnisse bei verschiedenen Restmaterial­stärken, daher war eine Näherungsformel nicht aufstellbar. Die Bearbeitung zog sich über mehrere Programmschnittstellen hinweg vom Export der Messdaten aus dem Tachymeter über deren Datenaufbereitung im Programm GEOgraf, den Zeichenprogrammen AutoCAD und Adobe Illustrator bis zur Laser-Cutter Software Epilog Dashboard und Epilog Management. Dabei wurde die Kompatibilität der Programme zuei­nander in Bezug auf Struktur der Import- und Exportformate, die Weiterverarbeitung von to­pographischen Objekten wie Punkte, Linien, Flächen und Volumen sowie die praktische Um­setzung der Herstellbarkeit dieser Objekte mit dem Laser-Cutters betrachtet. Bei den Her­stellungen der 2D-Modelle und physischen 3D-Modelle wurden größtenteils die topographi­schen Objekte Linien und Flächen verwendet, welche durch Vektoren und Gravuren gut im Laser-Cutter implementiert sind.

Campus-Modell der HTW Dresden
Campus-Modell der Hochschule für Technik und Wirtschaft Dresden im Maßstab 1:250
Modell des Beutlerparks
Modell des Beutlerparks im Maßstab 1:250

Insgesamt war die Kompatibilität der genutzten Programme gut. Die meisten Anpassungen innerhalb eines Programmes zur Vorbereitung der Weiter­gabe in das folgende Programm beruhten auf der Vereinfachung der Bearbeitung im finalen Programm Epilog Dashboard. Topographische Objekte wie Punkte und Volumen konnten zwar modelliert und exportiert werden, jedoch wurden sie nicht richtig erkannt von den Pro­grammen Adobe Illustrator und Epilog Dashboard, wodurch es sich anbot diese durch die bewährten topographischen Objekte Linien und Flächen darzustellen.

Die Maßhaltigkeit des Modells ist durch auftretende subjektive Fehleinschätzungen belastet und kann nicht durch das Gerät selbst kontrolliert werden. Während der Durchführungen wurden weitere Erkenntnisse gewonnen, welche die Qualität und Maßhaltigkeit des Modells verbesserten. Zum Zeitpunkt der Bearbeitung wurden punktuelle Kontrollen der Maßhaltig­keit durch den internen Messfühler des Laser-Cutters und den Messschieber mit digitaler An­zeige, durchgeführt. Kontrollen zur flächenhaften Maßhaltigkeit mittels Streifenlichtscanner und CloudCompare erfolgten im Nachhinein. Es sollte eine Kombination der unterschiedli­chen Herstellungsverfahren angestrebt werden, da die Problemstellen und Nachteile einer Herstellungsart einfach durch die Nutzung eines anderen Verfahrens beseitigt werden kön­nen. Dazu ist aber schon bei der Planung der Er-stellung von Modellen eine Kenntnis über alle Verfahren nötig, um Arbeitsaufwand und Zeit-bedarf abschätzen zu können.

Vergleichende Validierung der geodätischen Qualität von statischem und kinematischem Laserscanning im Gebäudeaufmaß

Bachelorarbeit von Benjamin Rabisch (2021)

In dieser Bachelorarbeit wurden verschiedene Erfassungsmethoden von Laserscannern im Gebäudeaufmaß untersucht. Hierfür wurde das Mensa-Gebäude der HTW Dresden mit drei verschiedenen Laserscannern erfasst. Diese Laserscanner unterschieden sich grundlegend ihrer Art der Datenerfassung. Der FARO Focus S150 ist ein statischer Laserscanner, der das Messobjekt aus mehreren Standpunkten aufnimmt. Der GeoSLAM ZEB Horizon wiederum ist ein kinematischer Laserscanner, der seine Messdaten in der Bewegung erfassen kann. Als dritter Scanner wurde der FARO Swift untersucht, der die Elemente des statischen und kinematischen Laserscannings kombiniert.

Ziel der Arbeit war es, die Unterschiede zwischen den Messmethoden bezüglich der Datenqualität und des Arbeitsaufwandes aufzuweisen und zudem zu untersuchen, ob die Integrierung von Festpunkten in die Datenauswertung lohnenswert ist.  

Die in den Messungen erhaltenen Messdaten wurden auf verschiedene Weisen weiterverarbeitet. Hierbei wurde u.a. die Menge und Verteilung der verwendeten Festpunkte variiert.

Die statischen Scans des FARO Focus S150 wurden mittels der Registrierungssoftware Scantra registriert. Diese Software beruht primär auf einer ebenenbasierten Registrierung und liefert eine spannende Alternative zu den gängigen zielmarken- und punktwolkenbasierten Registrierungsmethoden.

Die kinematischen Scans des GeoSLAM ZEB Horizon wurden mittels der Herstellersoftwares GeoSLAM Hub und GeoSLAM Draw weiterverarbeitet. Für die Einbindung von tachymetrisch

bestimmten Festpunkten konnten zudem drei verschiedene Transformationsmethoden verglichen werden. Die Messung des FARO Swift wurde in FARO Scene verarbeitet.

Somit konnten insgesamt 17 unterschiedliche Datensätze generiert und schließlich miteinander verglichen werden. Die Qualitätsanalyse der 17 Punktwolken wurde anhand von hochpräzisen Referenzpunkten (Standardabweichung < 1mm) durchgeführt. Bei dieser Untersuchung stellte sich heraus, dass die statischen Scans des FARO Focus S150 mit einer Standardabweichung der Koordinatenunterschiede von 3 mm eine erheblich höhere Genauigkeit aufwiesen, als die kinematischen Scans der anderen beiden Geräte (GeoSLAM ZEB Horizon 14 – 21 mm, FARO Swift 11 mm). Zudem wurden die Genauigkeiten der Datensätze mit den für die Generierung benötigten Zeitaufwänden ins Verhältnis gesetzt, um Rückschlüsse auf die Effizienz der verschiedenen Methoden zu erlangen. Hierbei konnte die höchste Effizienz bei dem Datensatz vom FARO Focus S150, welcher ohne die Nutzung von Festpunkten registriert wurde, ausgewiesen werden. Der Datensatz des GeoSLAM ZEB Horizons, welcher über Festpunkte durch die Methode „3D non linear“ transformiert wurde, wies die niedrigste Effizienz auf.

Untersuchte Laserscanner
Untersuchte Laserscanner v. l. n. r. FARO Focus S150, GeoSLAM ZEB Horizon, FARO Swift
Farbliche Darstellung des Punktrauschens
Farbliche Darstellung des Punktrauschens (v. l. n. r.: FARO Focus 150, FARO Swift, GeoSLAM ZEB Horizon)

Die Untersuchungen über die Integrierung von Festpunkten ergaben, dass bei den statischen Scans keine erheblichen Genauigkeitsgewinne durch die Integrierung von sehr vielen Festpunkten erreicht werden konnte, was auf eine bereits sehr hohe Effizienz der ebenenbasierten Registrierung in Scantra schließen lässt. Bei den kinematischen Scans des GeoSLAM ZEB Horizon konnten durch die festpunktgestützte Transformationsmethode „Adjust to Control“ kaum Genauigkeitssteigerungen erkannt werden, bei der Transformationsmethode „3D non linear“ in GeoSLAM Draw veringerte sich die Standardabweichung um wenige Millimeter.

Neben der absoluten Genauigkeit wurde das Messrauschen untersucht. Hierfür wurde für die beiden FARO Scanner eine Standardabweichung von 0,8 mm ermittelt. Für den GeoSLAM Zeb Horizon konnte eine Standardabweichung von 6,7 mm ermittelt werden.

Untersuchung und Handreichung zur internationalen Terminologie für den Themenbereich „Geodäsie und BIM“

Masterarbeit von Markus Schnarr (2021)

Building Information Modeling (BIM) ist eine Methode der optimierten, softwareunterstützten Planung, Ausführung und Bewirtschaftung von Bauvorhaben, basierend auf der aktiven Vernetzung aller am Bau Beteiligten. Das virtuelle 3D Modell bildet den Kern der Methode, aber die Semantik (fachliche Bedeutung der Objekte) bildet das führende Ordnungskriterium.

In internationalen BIM-Projekten, bei der Standardisierung, im wissenschaftlichen Diskurs und in der Lehre führen Übersetzungsfehler (der Semantik) zu Missverständnissen. Hier soll die Masterarbeit auf unterschiedlichen Ebenen Abhilfe schaffen. Die Querschnittsaufgabe ist die fachlich präzise Übersetzung vom Deutschen ins Englische und umgekehrt.

Masterarbeit Schnarr

Semi-automatisches Testbed zur Prüfung der Berechnung von räumlich-topologischen Prädikaten nach dem DE-9IM Schema

Masterarbeit Walther Schönbrodt-Rühl (2021)

Ziel dieser Arbeit war es, die Berechnung topologischer Beziehungen nach dem DE-9IM von Geometriebibliotheken zu prüfen. Zentral war dabei der Vergleich von drei üblichen Geometriebibliotheken mit der von Enrico Romanschek (HTW Dresden), Prof. Christian Clemen (HTW Dresden) und Prof. Wolfgang Huhnt (TU Berlin) neu entwickelten Geometriebibliothek mit dem Arbeitstitel „Topoloco“. Die Softwarebibliothek basiert auf einem neu entwickelten Ansatz zur Raumzerlegung von Enrico Romanscheks Promotionsvorhaben „Survey2Solid“. Topoloco wurde mit den Geometriebibliotheken PostGIS, SpatiaLite und NetTopologySuite verglichen. Zunächst werden in der Masterarbeit die Grundlagen des DE-9IM erläutert. Basierend auf diesem konzeptionellen/mathematischen Modell wurde für den Vergleich der Geometriebibliotheken ein semi-automatisches Testbed entwickelt. Der Test ist so konzipiert, dass die Eigenschaft der Invarianz der topologischen Beziehungen gegenüber geometrischen Transformationen (Skalierung, Translation und Rotation) mit sehr vielen numerischen Beispielen geprüft wird. Hierfür werden die Testdaten (Punkte, Linien, Polygone in allen topologischen Kombinationen) transformiert und anschließend geprüft, ob die Geometriebibliotheken weiterhin die gleiche topologische Beziehung berechnen.

Ein wesentliches Ergebnis des Tests ist, dass alle getesteten Geometriebibliotheken das DE-9IM und die Hierarchie der topologischen Prädikate richtig umgesetzten, wenn zwei   Geometrien ohne kritische Schnitte vorliegen. Festgestellt wurde aber, dass die Berechnungen der topologischen Beziehungen von PostGIS, SpatiaLite und NetTopologySuite eine große Fehlerquote aufweisen, wenn mit sehr kleinen oder sehr großen Koordinatenwerten gerechnet wird. Auch schleifende Schnitte können fehlerhafte topologische Prädikate verursachen.

Masterarbeit Schönbrodt-Rühl

Die an der HTW Dresden entwickelte Geometriebibliothek Topoloco weist eine deutlich geringere Fehlerquote auf und kann zudem angeben, bei welchen Geometrien die Berechnung nicht mehr zuverlässig ist. Zu betonen ist dabei, dass Topoloco bei der Translation nur korrekte Ergebnisse berechnet, während die handelsüblichen Bibliotheken mit sehr großen Koordinatenwerten nicht mehr zuverlässig rechnen. Dementsprechend ist zu schlussfolgern, dass Topoloco topologische Prädikate insgesamt robuster berechnen kann.

Experimentelle Untersuchung zur Registrierung von Punktwolken aus Bildverbänden mit Ebenen aus digitalen Bauwerksmodellen (BIM)

Bachelorarbeit von Nicole Fricke (2021)

Digitale Bauwerksmodelle, welche durch die Methode ‚Building Information Modeling‘ entwickelt wurden, spiegeln in der tatsächlichen Praxis oft nur einen stark abstrahierten Planungszustand wieder, wobei im Modell Bauteile wie beispielsweise Heizkörper, Fensterrahmen oder Einbauten der technischen Gebäudeausrüstung fehlen.

Durch Punktwolken, die sich durch eine gute Digitalisierungsbasis auszeichnen, kann das Modell bauteilorientiert ergänzt werden. Die Erzeugung solcher Punktwolken kann durch photogrammetrische Verfahren unter Einsatz von ‚Structure from Motion‘-Werkzeugen erfolgen. Dieses Vorgehen zeichnet sich gegenüber dem terrestrischen Laserscanning dadurch aus, dass das Messinstrument lediglich eine Kamera ist, wodurch die Kosten für die Objektaufnahme geringgehalten werden können. Für die korrekte Verwendung und Analyse der bildbasierten Punktwolken müssen diese mit einer 7-Parameter-Transformation, das heißt einer Helmerttransformation mit Maßstabsanpassung, in das Gebäudekoordinatensystem transformiert werden. In der Regel werden dabei Referenzpunkte für die Schätzung der Transformationsparameter verwendet. Allerdings ist der Aufwand Passpunkte im Gebäudekoordinatensystem zu vermarken und einzumessen oft unverhältnismäßig zum Nutzen.

In der Dissertation von Tim Kaiser wurde aufgrund dessen ein komplexes Verfahren entwickelt, bei welchem Punktwolken aus einer SfM-Pipeline mit Objektebenen aus digitalen Bauwerksmodellen, statt mit künstlich vermarkten Passpunkten, registriert werden können.

Im Rahmen der Bachelorarbeit wurde die generelle Methodik sowie die konkrete Softwareimplementierung an weiteren Objekten getestet. Die Räumlichkeiten eines Altbaus dienten dabei als Testobjekte. Für diese galt es eine Datengrundlage in Form eines Bildverbandes und entsprechenden BIM-Modells zu schaffen, welche anschließenden mit der entwickelten Prozessierungspipeline ausgewertet werden konnten. Dabei wird auf Beziehungen zwischen Wand- bzw. Flächeninformationen aus dem BIM und dreidimensionalen Liniensegmenten, die aus Bilddaten extrahiert werden, zurückgegriffen. Durch das Matching dieser Ebenen und Linien kann die Schätzung der Transformationsparameter (Rotation, Translation, Maßstab) erfolgen.

Laserscan

Neben der Testung und Anwendung der Prozessierungspipeline wurde analysiert, wie die Aufnahme der Testobjekte konzipiert sein muss beziehungsweise welche Objekte geeignet für die Anwendung der entwickelten Software sind. Um eine erfolgreiche Rekonstruktion des zu untersuchenden Objektes zu erhalten sowie Liniensegmente detektieren und extrahieren zu können, ist eine ausreichende Texturierung der Objektbegrenzungsflächen Grundvoraussetzung.
Weiterhin konnte durch die Integration der transformierten Punktwolken ins BIM-Modell und Vergleich dieser Untersuchungen hinsichtlich erreichter Qualität der Ergebnisse und Zuverlässigkeit der entwickelten Software erfolgen.

Das angewandte Konzept zur Transformation lokal erzeugter Punktwolken in das Koordinatensystem eines Gebäudemodells liefert das gewünschte Ergebnis. Durch die Verbindung von Ebenen aus einem BIM-Modell und extrahierten 3D-Liniendaten aus einem Bildverband ist es möglich die Punktwolke, ohne die Verwendung von Referenzpunkten korrekt zu registrieren.
Anwendung finden kann dieses Verfahren im Bereich des BIMs, um Ergänzungsmessungen für ein Gebäudemodell zu erstellen oder dieses generell zu aktualisieren. Auch beispielsweise Grundrisse für das entsprechende Objekt könnten aus der registrierten Punktwolke abgeleitet werden.

Untersuchung von Methoden zur Bestimmung von naturnahen Auen für die Regionalplanung

Masterarbeit von Henriette Pielenz (2019)

„Naturnahe Quellbereiche und Fließgewässer beziehungsweise Fließgewässerabschnitte mit ihren Ufer- und Auenbereichen (…) sind in ihren Biotop- und natürlichen Verbundfunktionen zu erhalten und von jeglicher Bebauung und Verbauung freizuhalten“ (Ziel 4.1.1.3 Landesentwicklungsplan (LEP) 2013 des Freistaat Sachsen). Mit der Umsetzung dieses Ziels ist u. a. der Regionale Planungsverband Oberes Elbtal/Osterzgebirge konfrontiert, da die Ziele des LEP bei der Regionalplanung zu berücksichtigen sind. Dafür müssen allerdings naturnahe Auengebiete ausgewiesen werden können. Diese Arbeit setzt an dieser Notwendigkeit an und untersucht verschiedene Methoden zur Bestimmung von naturnahen Auen.

Für die Bestimmung von naturnahen Auen werden zunächst Methoden aufgezeigt, wie sich anhand von den auentypischen Merkmalen Hydrologie, Geländeform, Boden, Vegetation und Geologie Auen bestimmen lassen. Zudem werden Methoden vorgestellt, wie sich mit Hilfe der Daten der Satelliten Sentinel-1 und Sentinel-2 bestimmte Merkmale von Auen bestimmen lassen. Dabei stellt sich vor allem der Index Normalized Difference Water Index (NDWI) als geeignet heraus, um Überschwemmungsgebiete zu identifizieren.

Für die Bestimmung der Naturnähe der Auengebiete werden verschiedene Methoden erläutert. Dabei werden die Gewässerstrukturbewertung, selektive Biotopkartierung und die Lebensraumtypen angewendet. Durch die Verschneidung der zuvor bestimmten potentiellen Auengebiete mit den Ergebnissen der Bestimmung der Naturnähe werden naturnahe Auengebiete ausgewiesen.

Dies und das Zusammenführen der sich als geeignet herausgestellten Methoden wird im entwickelten Workflow erläutert.

Es stellt sich heraus, dass die derzeit als naturnahe Auen identifizierbaren Gebiete für die Regionalplanung kaum geeignet sind, da sie flächenmäßig sehr klein sind und somit in den Regionalplänen nicht erkennbar wären.

 

Ablauf zur Bestimmung von naturnahen Auengebieten
Ablauf zur Bestimmung von naturnahen Auengebieten

Untersuchung zur effektiven Gebäudeinnenaufnahme mit anschließender Modellierung in Revit – Aufnahmetechnologien Handaufmaß mit DISTO, Photogrammetrie, terrestrisches Laserscanning

Bachelorarbeit von Annika Biber, Bianca Fabian und Michael Frenzel (2019)

Im Rahmen einer gemeinsamen Bachelorarbeit wurde mit den Aufnahmetechnolo­gien Handaufmaß mit DISTO, photogrammetrische Aufnahme und terrestrisches Laserscanning untersucht, welches Verfahren sich hinsichtlich der Kriterien Genauig­keit, Richtigkeit, Vollständigkeit sowie Wirtschaftlichkeit für eine effektive Gebäude­innenaufnahme am besten eignet. Des Weiteren wurde im Zuge der praktischen An­wendung der vorgenannten Aufnahmeverfahren die Vor- und Nachteile differenziert dargestellt, Hinweise zu geeigneten Anwendungsfällen abgeleitet und zusammenfas­send erläutert, ob ein kombiniertes Messverfahren zukünftig angestrebt werden sollte. Als Untersuchungsobjekt wurden dafür Räumlichkeiten des Mensagebäudes der Hochschule für Technik und Wirtschaft in Dresden gewählt. Die Datenerfassung und Modellierungsarbeiten der drei zu erstellenden Modelle bezogen sich in dieser Arbeit auf den Seminarraum M24, sowie den sich davor befindlichen Eingangsbe­reich und den Verbindungsgang zur Geräteausgabe. Diese wurden nachfolgend als Ergebnis von BIM-konformen 3D-Modellen dargestellt und für den Vergleich anhand von Kontrollmessungen mittels DISTO untereinander und mit der Realität verglichen.

Im Ergebnis konnte dabei festgestellt werden, dass im Hinblick auf Effektivität und Wirtschaftlichkeit die photogrammetrische Aufnahme sowie das terrestrische Laser­scanning, aufgrund der geringen Gesamtkostendifferenz, als bevorzugte Verfahren für die Gebäudeinnenaufnahme angewandt werden können. Infolge der umfassen­den Aufnahme- und Modellierungszeiten sollte das Handaufmaß als alleiniges Ver­fahren nicht verwendet werden. Hinsichtlich der untersuchten Modellierungsgenauig­keit mit einer maximalen Abweichung von 3cm konnte diese beim Handaufmaß zu 99% eingehalten werden. Demgegenüber konnte beim terrestrischen Laserscanning die Modellierungsgenauigkeit zu 92% und beim photogrammtetrischen Verfahren zu 76% realisiert werden. Bezugnehmend auf die Vollständigkeit aller wichtigen Elemen­te und Bauteile wurden in allen drei Modellen zufriedenstellende Ergebnisse erreicht. Zusammenfassend stellt die Kombination aus terrestrischen Laserscanning und dem Handaufmaß für Ergänzungsmessungen ein geeignetes Verfahren zur Gebäudein­nenaufnahme dar. Eine weitere Kombinationsmöglichkeit bietet das terrestrische Laserscanning mit dem photogrammetrischen Verfahren, da diese ebenfalls für gegenseitige Ergänzungsmessungen eingesetzt werden können.

 

Drahtgittermodell
Drahtgittermodell
Bauteil Treppe
Bauteil Treppe
Fertiggestelltes 3D-Modell
Fertiggestelltes 3D-Modell

Implementierung und Optimierung der statistischen Prozesskontrolle in einem Produktionsbetrieb

Bachelorarbeit von Romano Kernchen (2019)

Nach der Projektarbeit in der Qualitätsabteilung der Toyota Denso Deutsche Klimakompressor GmbH (TDDK) sollte die Statistical Process Control (SPC) auf andere Abteilungen erweitert werden. Damit dies in einem Produktionsbetrieb dieser Größe vollzogen werden kann, ist es notwendig die SPC als Gesamtheit zu verstehen, um dem Personal das Vertrauen gegenüber seinen ermittelten Messgrößen und der Statistik zu liefern.

Zur Schulung des Personals mussten daher zuerst die Grundlagen, die wichtigsten Begriffe, Definitionen und die 5M-Methode erläutert werden. Über Letztere zu wissen, ist essenziell, wenn es um eine fachgerechte Beurteilung von statistischen Auswertungen geht, da deren Einflüsse stetig wirken. Danach konnten die Messmittelfähigkeiten betrachtet werden, die sicherstellen, dass alle verwendeten Messmittel fähig sind. Dafür war es notwendig, diese nach aktuell gültigen Methoden zu überprüfen, schriftlich zu dokumentieren und damit ebenso statistisch nachzuweisen, dass verlässliche Messwerte im laufenden Produktionsprozess gemessen werden. Einen wesentlichen Bestandteil bildet dabei die Kalibrierung. Diese ist das Fundament für die Verlässlichkeit aller Werte, die vor der Produktion, produktionsbegleitend oder nach der Produktion für jegliche Art der Archivierung oder Auswertung erhoben werden.

Im nächsten Schritt galt es das erkannte Verbesserungspotential in Bezug auf den Einsatzbereich, die Rücksichtnahme kundenspezifischer Forderungen und die zukünftigen Auswertungen in die Regelkartentechnik zu implementieren.

Die Praxis vor der Abschlussarbeit zeigte, dass es äußerst schwierig war, einen Überblick anhand der Regelkartendateien für alle überwachten Prozesse zu erhalten. Eine globale Übersicht einer gesamten Abteilung sollte demnach realisiert werden, um dem Management ein Werkzeug zur Erkennung eines sofortigen Handlungsbedarfs zu geben. Ebenso soll eine Potentialanalyse ermöglichen, Messzyklen qualitativer und Personal kosteneffizienter zu organisieren. Um in der Übersicht den Schutz gegen Manipulation der Berechnungen zu gewährleisten, war eine Betrachtung zweckmäßiger Formeln oder die VBA-Programmierung zum Import der Werte unerlässlich.

Zuletzt wurde dem Personal eine Möglichkeit geboten ihre Messdaten zur statistischen Auswertung vom Messinstrument drahtlos in Excel zu übertragen. Fehlablesungen oder Fehleintragungen sollen somit vermieden werden. Dafür wurde im Zuge eines Pilotprojekts die Implementierung eines neuen Kommunikationssystems vorgenommen. Es wird der Aufbau dessen beschrieben, wobei auf die Installation der Hardware und auf die Einrichtung der Software eingegangen wird. Effektiv wird es zukünftig dem Werker ermöglicht, die zuvor analog geführten Daten mit gleichem Zeitaufwand, zur Beachtung der produktionsbedingten Taktzeiten, zu digitalisieren.

Im Ergebnis ist es erstmals möglich durch alle genannten Wissensanreicherungen, Verbesserungen und Umsetzungen sowie nach der Aufnahme von ausreichend Messgrößen die entworfene Regelkartentechnik in den verschiedenen Produktionsbereichen zu implementieren und das Personal entsprechend anzulernen.

Building Information Modeling (BIM) für die hoheitliche Vermessung? Digitaler Datenaustausch und automatisierte Berechnung von Kennzahlen des Landmanagements in BIM

Masterarbeit von Sören Meier (2018)

Building Information Modeling (BIM) ist eine Arbeitsmethodik, deren Bedeutung für das Bauwesen bei der Planung, Bauausführung und Bewirtschaftung von Gebäuden stark zunimmt. Die digitalen Bauwerksmodelle sind dabei intelligente Modelle, die Informationen mit sich führen und automatisierte Berechnungen ermöglichen. Aufgrund der Wiederverwendbarkeit können diese Modelle über ihren gesamten Lebenszyklus genutzt werden und die Kommunikation und den Datenaustausch zwischen den am Bauprozess beteiligten Parteien verbessern. Anhand dieser Masterarbeit soll untersucht werden, inwiefern Prozesse des Landmanagements und hoheitlicher Vermessungsaufgaben von den Vorteilen der BIM-Methode profitieren können. Herkömmlich werden grundstücksbezogene Daten nicht logisch mit dem digitalen Bauwerksmodell verknüpft. Daher wurde ein Plugin zum Import von ALKIS-Daten entwickelt, welches das Einlesen amtlicher Vermessungsdaten im XML-Format in die BIM-Autorensoftware „Autodesk Revit“ und somit eine direkte Verknüpfung der Informationen mit den gebildeten Flurstücksobjekten ermöglicht. Dies führt zu einem schnelleren Zugriff sowie eine Bündelung von für den Bauprozess relevanten Informationen des Landmanagements. Anhand dieser Informationen sind automatisierte Prüfungen rechtlicher Aspekte sowie die Berechnung von Kennzahlen möglich. Dazu wurde ein weiteres Plugin entwickelt, welches Abstandsflächen digitaler Bauwerksmodelle auf Grundlage der importierten Sachdaten sowie den Vorgaben des § 6 SächsBO automatisiert berechnet. Die berechneten Abstandsflächen sind grafisch am Bauwerksmodell sichtbar und ermöglichen im Zusammenhang mit den importierten Flurstücksgeometrien und deren Sachdaten die Überprüfung etwaiger Verstöße gegen das Bauordnungsrecht, wie die Überschreitung von Grundstücksgrenzen oder anderer Abstandsflächen. Zur Überprüfung der Praxistauglichkeit wurde die entwickelte Software bei mehreren Institutionen des amtlichen Vermessungswesen wie Vermessungsverwaltungen und Öffentlich bestellten Vermessungsingenieuren vorgestellt. Dabei konnten Feedback sowie auch Erweiterungs- und Verbesserungsvorschläge für die Software aus der Sicht von Praxisvertretern ermittelt werden.

MA Meier

In diesem Zusammenhang wurde außerdem der internationale Standard ISO EN 19152 zum Land Administration Domain Model (LADM) untersucht. Diese noch recht junge Norm aus dem Jahr 2012 hat zum Ziel, die Entwicklung effizienter und effektiver Landadministrationssysteme sowie die Kommunikation der am Landadministrationsprozess beteiligten Parteien zu verbessern. Dabei hat sich herausgestellt, dass das LADM mit deutschem Fachrecht vereinbar ist und bei der Entwicklung zukünftiger Software des Landmanagements berücksichtigt werden sollte. 

Die im Rahmen dieser Masterarbeit entwickelten Plugins sind erste Prototypen für die Integration grundstücksbezogener Daten sowie die automatisierte Berechnung von Kennzahlen des Landmanagements in BIM. In Verbindung mit den gewonnenen Erkenntnissen aus den Praxisinterviews und den Untersuchungen des Land Administration Domain Models bildet diese Arbeit eine Grundlage für weitere Forschung und die Entwicklung praxistauglicher und zuverlässiger Software zur Bewältigung von Herausforderungen des Landmanagements mithilfe von BIM. 

Building Information Modeling – Linkmodelle für die Interoperabilität von Bau-, Vermessungs- und Geodaten

Masterarbeit von Pascal Poßner (2018)

Die BIM-Methode findet aktuell immer häufiger Anwendung in der Planung neuer bzw. Bewirtschaftung bereits bestehender Bauwerke. Diese Entwicklungen besitzen deshalb auch eine große Relevanz für die Fachbereiche der Geoinformation und Ingenieurgeodäsie, welche seit jeher stark an Bauwerksprozessen, unter anderem in Bereichen der vorbereitenden Planung, baubegleitenden Vermessung, Bestandsaufnahme und Qualitätssicherung beteiligt sind.

Daten der Geoinformation sind jedoch gemeinsam mit BIM-spezifischen Bauwerksmodellen nicht hinreichend interoperabel. Die graphischen Repräsentationen der Objekte sind in aktuellen Softwaresystemen lediglich gemeinsam visualisierbar. Eine logische Verbindung der semantischen Informationen von Elementen der Datenmodelle ist noch nicht gegeben.

Als möglicher Lösungsansatz werden aktuell sogenannte Linkmodelle diskutiert, die außerhalb der originären Daten ID-basierte Verbindungen zwischen Einzelelemente der Domänenmodelle aufbauen und vom Nutzer anschließend für Datengewinnungsprozesse aus dem kombinierten Informationsraum der Domänen genutzt werden können.

Im Laufe der Arbeit wurden verschiedene Konzepte zur Umsetzung dieser Linkmodelle untersucht und in Anwendungsfällen getestet. Hauptaugenmerk waren dabei semantische Informationsabfragen an einen kombinierten Datenbestand aus BIM-Daten (IFC) und Geoinformationen (z.B. CityGML).

MA Poßner

Nach aktuellem Stand können die untersuchten Technologien für semantische Verknüpfungen und Informationsabfragen zwischen ausgewählten Datenformaten der Domänen BIM und Geoinformation bzw. Geodäsie genutzt werden.

Zukünftig sind weitere Forschungen auf diesem Gebiet sinnvoll um auch topologische sowie geometrische Aspekte von Geodaten und somit deren volles Informationspotential in Linkmodellen nutzen zu können.

Building Information Modeling – Georeferenzierung und Absteckung von digitalen Bauwerksmodellen

Masterarbeit von Marcel Schinke (2018)

Building Information Modeling (BIM) gewinnt zunehmend an Bedeutung in der Baubranche. So sollen laut Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) ab 2020 alle neu geplanten Verkehrsinfrastrukturprojekt mit der BIM – Methode geplant werden. Da Planungen von solchen Projekten eine Vielzahl von Gewerken umfassen, die jeweils verschiedene Softwares verwenden, erfolgt der Austausch im offenen Austauschformat Industry Foundation Classes (IFC). Auch der Geodät ist ein Beteiligter im kooperativen BIM – Prozess mit seinen Leistungen wie Aufmaß, Laserscan und Absteckung. Im Rahmen dieser Masterarbeit wird daher untersucht, wie kommerzielle BIM – Softwares IFC – Dateien qualitativ importieren und auch exportieren. Die analysierten Softwares sind Autodesk Revit 2017, Bentley AECOsim Building Designer, Allplan 2018, ARCHICAD 21 sowie die IFC-fähigen Vermessungssoftwares Leica Infinity und Listech Neo. Der Fokus liegt dabei auf der Georeferenzierung, der Geometrie und der Aggregation der IFC – Dateien. Für die Analyse der Georeferenzierung wird der „IFC GeoRefChecker“ verwendet, der an der Fakultät Geoinformation der HTW Dresden entwickelt wird. Zum Testen aller Schwerpunkte wird ein Testablauf entwickelt und die Ergebnisse der Tests für den Import und den Export in Checklisten zusammengefasst. Die Resultate zeigen qualitative Unterschiede beim Lesen und Schreiben von IFC – Dateien in den einzelnen Softwares.

Die Absteckung stellt eine wichtige Leistung des Geodäten im BIM – Prozess dar. Deshalb wird untersucht, wie mit BIM – Softwares Absteckungspunkte erzeugt, verwaltet und für den Außendienst exportiert werden können. Auch der Import in die Software nach der Absteckung und die Dokumentationsmöglichkeiten der Absteckung sind Teil Analyse. Neben den zuvor genannten Softwares ist hier auch Autodesk BIM 360 in Anwendung. Die Besonderheit ist dabei, dass die Absteckung direkt im digitalen Modell in der Örtlichkeit stattfindet. Die Untersuchungen zur Absteckungen ergeben, dass in den Softwares Bentley AECOsim Building Designer, Allplan 2018 und ARCHICAD 21 keine Implementierungen zu Absteckungsaufgaben vorhanden sind. Dies hat zur Folge, dass der Geodät hier auf seine eigene Spezialsoftware zurückgreifen muss und nicht mit BIM – Software arbeiten kann. Da auch die Absteckungsdaten für alle Beteiligten des BIM - Prozesses zur Verfügung stehen sollen, wird ein Entwurf zur Speicherung von Absteckungsdaten in den IFC modelliert. Die gewonnenen Erkenntnisse zur Absteckung sind in einem BIM – konformen Information Delivery Manual (IDM) zusammengefasst.

Modellbasierte Absteckung
Modellbasierte Absteckung

Topographische Datenerfassung mit Terrestrischem Laserscanning (TLS) für das Building Information Modeling (BIM) im Außenbereich

Bachelorarbeit von Felix Gruner (2018)

Für viele Fragestellungen kann es sinnvoll sein, nicht nur das Bauwerk an sich, sondern auch das Außengelände mit einem Digitalen Geländemodell, Stützmauern und vielen weiteren Bestandteilen des Außenbereichs bauteilorientiert zu modellieren. Der Laasenhof in Rathen verfügt über ein vielfältig gestaltetes Außengelände und ist deshalb als Testobjekt für diese Untersuchung geeignet. In einem vorangegangenen Forschungsprojekt wurde bereits der gesamte Außenbereich tachymetrisch aufgemessen und modelliert. Das Ziel dieser Arbeit war es, die Aufgabe analog mit einer alternativen Methode, dem TLS, zu lösen. Dadurch lassen sich beide Verfahren miteinander vergleichen. Es sollte vor allem überprüft werden, inwiefern sich bei TLS der vergleichsweise schnelle Außendienst in den Innendienst verlagert. Außerdem wurde die Erstellung eines exakten Digitalen Geländemodells näher untersucht. Ein letzter Teil der Arbeit befasste sich mit der Möglichkeit, aus der Gesamtpunktwolke kleinere Bauteilpunktwolken zu filtern und den Speicherpfad als Link an das Bauteil zu heften.

Es konnte gezeigt werden, dass sich die Zeitspanne nach dem Außendienst bis zum Beginn der Modellierung bei beiden Methoden identisch verhält. Das heißt: bei TLS dauert die Registrierung und Einfärbung der Punktwolke etwa so lange wie das richtige Verbinden der einzelnen Punkte des tachymetrischen Aufmaßes. Für die Erstellung eines DGMs bietet das Plugin PointSense ein sehr komfortables Werkzeug, mit dem aus vorher erstellten Modellinien und Punkten das DGM direkt in Revit erstellt werden kann. Dieses kann beliebig verfeinert werden. Bei beiden Methoden können die Bauteile bestmöglich in ihre Umrissen eingefügt werden, allerdings gibt es bei TLS durch PointSense die Möglichkeit, Wandstärken automatisch zu ermitteln und diese angepasst einzufügen.

Für Scan-to-BIM-Aufgaben sollte dementsprechend TLS als vollwertige Methode angesehen werden.

Laasenhof in Rathen
Laasenhof in Rathen

Datenaustausch von Bauwerksmodellen (BIM) zwischen Vermessungsunternehmen und Fachplaner mit den Industry Foundation Classes (IFC)

Bachelorarbeit von Alice Rösler (2018)

Das zentrale Thema bei der kooperativen Arbeitsmethode Building Information Modelling ist, durch eine transparente Kommunikation zwischen den Beteiligten, relevante Informationen und Daten eines Bauwerkes auszutauschen und zu übergeben. Als offenes und neutrales Austauschformat für digitale 3D-Bauwerksmodelle werden die Industry Foundation Classes (IFC) genutzt.
Die Bachelorarbeit, welche in Kooperation mit der Firma Laserscanning Europe GmbH verfasst wurde, untersucht diesbezüglich die softwareseitige Konfiguration der IFC Export- und Importfunktionen in den Softwareanwendungen Autodesk Revit und Graphisoft ArchiCAD. Es wurde umfassend betrachtet, inwieweit ein 3D-Bauwerksmodell zwischen diesen Softwareprodukten übergeben wird. Die hauptsächlichen Untersuchungspunkte stellten hierbei die Objektidentifikation, die Geometrie, die Topologie und die Semantik der Bauteile dar. Des Weiteren erfolgte eine Analyse der Bezugs- und Beziehungselemente beim Datenaustausch, sowie die Einhaltung der räumliche Aggregationshierarchie. Zudem wurden vermessungstechnische Modellinhalte, wie z.B. das Bezugssystem des Projektes, die Zugabe von 2D-Elementen und die Erweiterung durch Sekundärdaten beim Datenaustausch beleuchtet. Somit konnten wesentliche Erkenntnisse zum Datenaustausch mittels IFC gewonnen werden.
Ein weiteres Resultat dieser Arbeit ist ein umfassendes, anwendungsorientiertes Handbuch für die Mitarbeiter und Kunden von Laserscanning Europe GmbH zur Unterstützung für den digitalen Austausch von 3D-Bauwerksmodellen, welche nach der BIM-Methodik modelliert wurden.

Gegenüberstellung des Ausgangsmodells in ArchiCAD und des importierten Modells in Revit
Gegenüberstellung des Ausgangsmodells in ArchiCAD und des importierten Modells in Revit

Erfahrungen mit der Trimble SX10 im Zusammenspiel von Tachymetrie und Laserscanning

Diplomarbeit von Tobias Brandstetter (2017)

Im ersten Schwerpunkt dieser Arbeit wurden Untersuchungen der Trimble® SX10 Scanning-Totalstation insbesondere bezüglich ihrer Einsatzmöglichkeiten durchgeführt. Dabei wurde eine Koordinatengenauigkeitsprüfung an der Saarländischen Tachymeterprüfstrecke, das Reflexionsverhalten an verschiedenen Oberflächen mit unterschiedlichen Grauabstufungen, das Auflösungsvermögen mit Hilfe eines Siemenssterns und ein Feldprüfverfahren laut DVW-Merkblatt durchgeführt. 

Zur Untersuchung der Koordinatengenauigkeit der SX10 wurden Soll-Ist-Vergleiche durchgeführt. Für das entsprechende Prüfverfahren wurden sechs Zieltafeln angefertigt und auf der Tachymeterprüfstrecke des Saarlandes auf sechs verschiedenen Pfeilern mit unterschiedlichen Entfernungen zum Instrument aufgestellt. Um einen georeferenzierten Scan zu gewährleisten, wurde eine Freie Stationierung durchgeführt, wobei alle Zieltafeln auf den Pfeilern von jeweils drei Standpunkten aus aufgenommen wurden. Während der anschließenden Bearbeitung der Messergebnisse wurden die drei Scans nach dem Löschen der überschüssigen Scanpunkte einzeln ausgewertet. Der entsprechende Soll-Ist-Vergleich wurde vorgenommen, indem die Differenz der Soll-Koordinaten zu den Ist-Koordinaten gebildet wurde. Anschließend konnte die 3D-Genauigkeit und die entsprechende empirische Standardabweichung errechnet werden. Die Soll-Ist-Vergleiche konnten lediglich in den Fällen durchgeführt werden, in denen die Entfernung der SX10 zu den Zieltafeln nicht zu groß war. Dies gelang nur bei vier Zieltafeln. Mit zunehmender Entfernung sank die Zahl der Scanpunkte auf den entsprechenden Tafeln, wodurch eine Feststellung der Mitte ab einer Entfernung von 200 m nicht mehr möglich war. Dadurch waren die Abweichungen der y- und z-Werte zwischen Ist- und Soll-Koordinaten relativ groß. Punktscharfe Ziele sind also bei einer großen Entfernung schlecht zu bestimmen. Allerdings konnte der x-Wert der Koordinaten sehr exakt bestimmt werden, was bedeutet, dass die Entfernung des Instruments zu den jeweiligen Zieltafeln exakt bestimmt werden kann. Zusammenfassend ist zu erwähnen, dass eine präzise Scanaufnahme bei großen Oberflächen mit wenigen Strukturen gut durchführbar ist. 

Um das Reflexionsverhalten der SX10 zu untersuchen, erfolgte eine Bestimmung des Reflexionsgrades. Dieser wird einerseits von der Ausrichtung und der Distanz zwischen dem Messobjekt und dem Instrument und andererseits von der Qualität des zurückgeworfenen Signals und der Oberflächenstruktur beeinflusst. Die Bestimmung des Reflexionsgrades erfolgte durch die Ermittlung der Intensitätswerte. Als Messobjekte dienten acht Platten, welche aus unterschiedlichen Materialien bestanden und verschiedene Grauabstufungen aufwiesen. Die Messungen erfolgten mit vier unterschiedlichen Abständen zwischen den Platten und dem Instrument, wobei jede Messung wiederum in vier verschiedenen Scandichte-Einstellungen ausgeführt wurde. Mit steigender Entfernung sank die Anzahl der Identitätswerte auf den Oberflächen. Bei der Mittelwertbildung der Identitätswerte wurde festgestellt, dass diese bei allen Oberflächen außer bei Putz Schwarz und Styropor Schwarz mit genauerer Scandichte abnahmen. Wie zu erwarten, wiesen die Oberflächen unabhängig zur Entfernung mit zunehmendem Schwarz-Anteil in der Farbe schlechtere Werte auf. Ebenso wurde der Einfluss der Oberflächenstruktur auf die Intensitätswerte bestätigt. Die Messentfernung und die Scandichte-Einstellung hatten lediglich bei den Oberflächen Putz und Styropor einen leichten Einfluss auf die Intensitätswerte. In beiden Fällen wurden mit zunehmender Entfernung und niedrigerer Scandichte bessere Identitätswerte gemessen. Bei der Oberfläche Holz hatte die Entfernung keinen signifikanten Einfluss. 

Die Untersuchung des Auflösungsvermögens der SX10 wurde mithilfe eines Böhlersterns durchgeführt. Anhand des Durchmessers des mit zunehmender Entfernung wachsenden Unschärfekreises in der Mitte des Böhlersterns, konnte das Auflösungsvermögen ermittelt werden. Ebenso wie bei der Untersuchung des Reflexionsverhaltens wurde die Messung mit vier unterschiedlichen Messabständen und jeweils vier Scandichte-Einstellungen durchgeführt. Da der Unschärfekreis meist in Form eins Ovals statt eines Kreises vorliegt, musste sowohl der Durchmesser in vertikaler, als auch in horizontaler Richtung ermittelt werden. Daraufhin wurde der jeweils größere Wert zur Auswertung herangezogen. Anhand der Ergebnisse dieser Messreihe ergeben sich Empfehlungen bezüglich der Scandichte-Einstellungen in Abhängigkeit der Messentfernung, um ein entsprechendes Auflösungsvermögen des Scanobjektes zu gewährleisten. Die Ergebnisse der Scandichte-Einstellung Sehr fein fielen bei allen Entfernungen sehr gut aus. Dennoch ist selbst in dieser Einstellung eine Messentfernung von über 100 m zu vermeiden. Die Einstellung Fein lieferte bis 50 m ebenfalls sehr gute Ergebnisse, aber auch hier sollte die Entfernung von 50 m nicht überschritten werden. Die niedrigere Scandichte-Einstellung Standard sollte nur verwendet werden, wenn die Entfernung unter 25 m liegt. Auf die Scandichte-Einstellung Grob sollte für detaillierte Aufnahmen unabhängig von der Entfernung grundsätzlich verzichtet werden. 

Eingefärbte 3D-Punktwolke der Alten Brücke Saarbrücken von der Vorderseite
Eingefärbte 3D-Punktwolke der Alten Brücke Saarbrücken von der Vorderseite

In einem weiteren Schwerpunkt dieser Arbeit, der Realisierung des Vermessungsprojektes der Alten Brücke, wurden das Wissen und die Erkenntnisse aus den zuvor beschriebenen Untersuchungen angewendet. Während der Aufnahme der Alten Brücke wurde insbesondere ausgenutzt, dass die SX10 eine Kombination aus Laserscanner und Totalstation ist. Die Durchführung der Stationierungsmöglichkeiten Freie Stationierung, Stationierung Plus und Stationierung waren mithilfe des Instruments leicht umzusetzen. Ebenso führte die Trimble® Access™ Software der SX10 zu einer unkomplizierten Auswertung des Polygonzuges. Die nach einer Stationierung durchgeführten georeferenzierten Scans konnten ebenfalls problemlos durchgeführt werden. Die Umsetzung dieses Projektes wurde innerhalb von vier Arbeitstagen mit zwei Personen durchgeführt. Zur reinen Bedienung der SX10 würde normalerweise aufgrund der leichten Bedienfunktion eine Person genügen. Aufgrund des hohen Gewichts des Instruments samt Koffer und Zubehör war zum Transport über die zum Teil recht weiten Entfernungen zwischen den Standpunkten eine zweite Person sinnvoll. Des Weiteren musste für die Umsetzung der georeferenzierten Punktwolke zuvor eine Stationierung durchgeführt werden, welche wiederum mindestens zwei Anschlusspunkte benötigte. Diese erforderte das Zurücklegen längerer Wegstrecken über die von vielen Fußgängern benutzte Brücke, währenddessen die SX10 mit nur einer Person ohne Aufsicht gewesen wäre. Das Zusammenspiel zwischen Laserscanner und Totalstation konnte bei diesem Projekt sehr gut getestet werden und kann zusammenfassend als sehr gut funktionierende Einheit beurteilt werden. Die Bedienfunktion der Trimble® Access™ Software ist auch für neue mit dem System nicht vertraute Anwender, nach kurzer Zeit verständlich und relativ schnell erlernbar. 

Das Kennenlernen und sichere Anwenden der sehr umfangreichen Funktionalität der Software Trimble® Business Center erforderte ohne entsprechende Schulungen einen nicht unerheblichen Zeitaufwand. Letztendlich konnten nach Aneignung der Kenntnisse über die Systemfunktionalitäten alle Bearbeitungsschritte beginnend mit der Überspielung der Messdaten bis zur Bearbeitung der Punktwolken problemlos und effizient mit der Software umgesetzt werden. 

Die Software wurde für die Arbeiten in jedem der beschriebenen Kapitel verwendet. Dabei konnten die Auswertungen der Untersuchungen in Kapitel 3 und 4 erfolgreich durchgeführt werden. Die Bearbeitung der Alten Brücke war deutlich umfangreicher, wobei hier im Besonderen anzumerken ist, dass ein großer Vorteil die vorherige Erzeugung der georeferenzierten Punktwolke lag. Dadurch musste keine nachträgliche Zusammenführung der einzelnen Punktwolken vorgenommen werden, was während der Bearbeitung des Projekts mit der Software sehr viel Zeit ersparte. Außerdem waren die spätere Zusammenführung der bearbeiteten Punktwolke und der aufgenommenen Bilder der SX10 gut umzusetzen. 

Rückwirkend betrachtet waren die Erfahrungen mit der Trimble® SX10 und der Software Trimble® Business Center während der Umsetzung verschiedener Untersuchungen und der Umsetzung des Vermessungsprojektes Alte Brücke sehr interessant und können als positiv beurteilt werden.