Fakultät Geoinformation

Abschlussarbeiten

3D-Modellierung und Präsentation des Uranerzbergbaus bei Aue-Bad Schlema von den Anfängen bis zur Gegenwart

Bachelor-Arbeit von Anne Sophie Bräuer (2023)

Im Zeitraum von 1946 bis 1991 gewann die Staatliche Aktiengesellschaft der Buntmetallindustrie / Sowjetisch-Deutsche Aktiengesellschaft Wismut große Mengen Uranerz aus der Lagerstätte Schlema-Alberoda, nördlich der Stadt Aue. Die Auswirkungen jener Vergangenheit und die Resultate der anschließenden Sanierungsmaßnahmen der Wismut GmbH sind bis heute in der Region präsent.

Das Ziel dieser Abschlussarbeit war die 3D-Modellierung und Präsentation des Bergbaugebietes von Niederschlema, eines Ortsgebietes von Aue-Bad Schlema, für drei verschiedene Zeitschnitte. Hierdurch erhalten Interessenten die Möglichkeit, den Wandel der Landschaft von den Anfängen des Wismut-Bergbaus im Modell von 1947 über den Beginn der Sanierungsphase der Bergbaufolgelandschaften im Modell von 1994 bis hin zur gegenwärtigen Situation im Jahr 2023 mit den sanierten Halden und noch existierenden Schächten nachzuvollziehen.

Die Modellerstellung stützte sich primär auf die Tagerisse der Wismut GmbH sowie die digitalen Höhen- und Stadtmodelle des Landesamtes für Geobasisinformation Sachsen. Für die Modellierung kam die Software ArcGIS Pro zum Einsatz. Nach der Erstellung wurden die 3D-Modelle mithilfe von ArcGIS Online über Webszenen in Anwendungsumgebungen wie Story Maps und Portfolios veröffentlicht. Diese ermöglichen einen Vergleich der Modelle. Zudem vermitteln Videos einen Überblick über die Modellinhalte.

Die Geländeoberflächen der 3D-Modelle basieren auf Höhenrastern, die zusätzlich anhand von Schummerungs- und Neigungsrastern visualisiert wurden. Eine Charakteristik der Nutzungsarten der Oberfläche erfolgte über unterschiedlich symbolisierte Polygone. Dreidimensionale Bauwerke und Bäume tragen zur 

realistischen Gestaltung der Modelle bei. Primär während der Präsentation der Szenen in ArcGIS Online zeigt sich ein unerwünschtes Schimmern der Dachdeckung. Relevante Objekte erhielten zudem Beschriftungen und aktivierte Pop-ups bieten zusätzliche Informationen.

Erstmals wurde somit der facettenreiche Wandel von Niederschlema in 3D-Modellen dargestellt. Dadurch haben Interessenten die Möglichkeit, die Entwicklung von vergangenen Zeiten bis in die Gegenwart zu erfassen und die einzelnen Zustände zu vergleichen.

Untersuchungen zur Kontrollierbarkeit und Aufdeckbarkeit von multiplen Ausreißern in geodätischen Koordinatentransformationen

Bachelor-Arbeit von Samuel Hagist (2023)

In der Ausgleichungsrechnung wird die beste Annäherung der gemessenen Werte an die wahren Werte gesucht. Dabei können in den Messungen enthaltene Fehler auf mehrere Beobachtungen verteilt werden, um somit den Einfluss der zufälligen Fehler zu minimieren. Tritt jedoch ein grober Fehler in einer Messung auf, wird es problematisch, denn dieser grobe Fehler wirkt sich auch auf die angebrachten Verbesserungen der anderen Beobachtungen aus. Ziel ist es diese groben Fehler mit Hilfe bestimmter Methoden zu erkennen und zu detektieren.

Zur Ausreißererkennung dienen statistische Tests, womit bis zu einer bestimmten Irrtumswahrscheinlichkeit geprüft werden kann, ob ein grober Fehler in den Beobachtungen vorliegt. Falls dieser Globaltest einen Ausreißer erkennt, kann mittels Lokaltest bestimmt werden, in welcher Beobachtung der Ausreißer vermutlich enthalten ist. Dabei sind die Tests so aufeinander abzustimmen, dass sie die gleiche Sensitivität aufweisen, damit Global- und Lokaltest nicht zu widersprüchlichen Ergebnissen führen.
Dieses Verfahren ist für die Suche nach einem Ausreißer bereits gängige Praxis. Es kann aber nicht davon ausgegangen werden, dass in den Beobachtungen immer lediglich ein grober Fehler vorliegt, denn es könnten auch mehrere gleichzeitig auftreten.

In dieser Arbeit wurde ein Verfahren zur Bestimmung multipler Ausreißer implementiert und untersucht. Dazu wurde die Software GNU Octave verwendet. Die Untersuchungen bezogen sich auf die Verwendbarkeit dieses Verfahrens für drei ebene Koordinatentransformationen (Helmert-Transformation, Affin-Transformation und 3-Parameter-Transformation). Als Ausgangsdaten wurden Messdaten simuliert, denen bewusst grobe Fehler hinzugefügt werden konnten, um verschiedene Situationen mit Ausreißern zu testen.
Bei jeder geänderten Situation der Ausgangsdaten mussten die meisten Werte neu berechnet werden. Grundlegend wurden über eine Ausgleichungsrechnung zunächst die ausgeglichenen Parameter ermittelt. Ebenfalls über die Ausgleichungsrechnung erhielt man Redundanzzahlen, die Aussagen über den Grad der Kontrolliertheit der einzelnen Koordinatenwerte liefern. Gleichzeitig konnten ein Globaltest und mehrere Lokaltests durchgeführt werden. Die Lokaltests unterschieden sich durch die Annahme einer verschiedenen Anzahl von Ausreißern in den Ausgangsdaten. Diese Tests dienten allesamt dazu den oder die hinzugefügten Ausreißer zu detektieren und zu identifizieren.

Durch die Untersuchungen konnte festgestellt werden, dass sich die Ausreißer sehr unterschiedlich auf die Beobachtungen auswirken. Die Auswirkungen hängen vor allem von den unterschiedlichen Transformationsarten, aber auch von der Höhe der Ausreißer und ihrer Anzahl ab. Es konnten auch Fälle festgestellt werden, bei denen die statistischen Tests sehr unzuverlässig sind. Generell war die Suche nach multiplen Ausreißern nicht genauer oder zuverlässiger als die Suche nach einem Ausreißer, sodass das bisher benutzte Prinzip nicht verbessert werden konnte.
Des Weiteren wurden die Ergebnisse der statistischen Tests mit den Zuverlässigkeitszahlen in Zusammenhang gebracht und geprüft, was passiert, wenn sich diese Werte verändern. So konnte festgestellt werden, dass die Zuverlässigkeitszahlen einen Einfluss darauf haben, ab welcher Größe ein grober Fehler als Ausreißer erkannt wird.

BIM-Paradigmen für das verformungstreue Aufmaß – Softwarevergleich am Beispiel eines Dachstuhls

Bachelorarbeit von Alfred Paul (2023)

Die Building Information Modeling (BIM)-Methode bietet zahlreiche Vorteile über den gesamten Lebenszyklus eines Gebäudes. Allerdings stellt sich die Frage, wie ein Gebäude, das vor der Einführung der BIM-Methode errichtet wurde, in ein Bestandsmodell überführt werden kann, um einige der Vorteile für das Gebäude nutzbar zu machen. Es gibt viele verschiedene Softwarelösungen, die dafür angeboten werden. Im Rahmen dieser Untersuchung wurden zwei bekannte Softwares zur Punktwolkenverarbeitung ausgewählt, die jeweils ein Plugin zur Modellierung in Revit bieten. Die Plugins von PointCab und AsBuiltModeler wurden verwendet, um den Dachstuhl des historischen Herrenhauses in Rothnaußlitz zu modellieren. Das Gebäude hat eine reiche Geschichte und steht derzeit teilweise unbewohnt und unrenoviert als Mehrfamilienhaus.

Vor der Modellierung des Herrenhauses war es entscheidend, einen geodätischen Rahmen zu schaffen. Dies wurde durch Vermessungspunkte erreicht, die mithilfe eines Trimble R10 GNSS durch die Dachfenster ermittelt wurden. Zudem wurden Schachbrettmarken, die über den gesamten Dachstuhl verteilt waren, mithilfe eines Leica TCRP1202+ eingemessen. Anschließend wurde der Dachstuhl aus 22 verschiedenen Standpunkten durch den Laserscanners Faro Focus S150 erfasst und mit der Registrierungssoftware "Scantra" über identische Ebenen registriert.

Sowohl der Modellierungsworkflow als auch der Funktionsumfang der beiden Plugins waren ähnlich, jedoch gab es deutliche Unterschiede in Bezug auf die Benutzeroberfläche und Navigation in der Punktwolke. Dies führte zu erheblichen Unterschieden in der Modellierungsgeschwindigkeit. PointCab arbeitet hauptsächlich in 2D-Ansichten, was ein performantes Arbeiten in großen Punktwolken ermöglicht, jedoch das Erfassen von 3D-Geometriemerkmalen erschwert. Im Gegensatz dazu erfolgt die Arbeit mit AsBuiltModeler in der 3D-Punktwolke. Vor der Modellierung muss die Punktwolke berechnet werden. Die Navigation in der Punktwolke wird durch eine fliegende Perspektive realisiert. PointCab ermöglicht zusätzlich zur Punktwolkenverarbeitung auch die Möglichkeit der Registrierung und Transformation in ein übergeordnetes Koordinatenreferenzsystem an und bietet dadurch im Vergleich zu AsBuiltModeler ein umfassenderes Gesamtpaket.

Während der Modellierung wurden typische BIM-Paradigmen wie Semantik, Volumenkörper, Topologie und Bezugselemente im Rahmen der Bestandsaufnahme untersucht. Es wurde beschrieben, wie die Plugins während der Modellierung arbeiten und wo Verbesserungspotenzial besteht. Dabei unterschieden sich die Plugins in der Erstellung der Balkenkonstruktion. AsBuiltModeler verfolgt den Ansatz, die Balken über Flächen zu definieren, während PointCab die Kanten des Objekts nutzt. Der Ansatz von AsBuiltModeler in Kombination mit der Punktwolkennavigation erwies sich als zuverlässig und effizient. Beide Plugins integrieren geringe Automatisierungen bei der Erstellung von Bauteilfamilien. PointCab bietet eine automatische Stützfamilienerstellung und AsBuiltModeler eine automatische Fensterfamilienerstellung in Revit an.

Es wurde festgestellt, dass die Plugins keine Funktionen zur Semantik und Topologie bieten. Als Bezugselement wird lediglich die Ebenenerstellung bereitgestellt. Um die Qualität der erstellten Modelle zu bewerten, wurden beide Modelle mit der ursprünglichen Punktwolke verglichen. Dies wurde mithilfe der Software "CloudCompare" durchgeführt, da keines der Plugins einen direkten Vergleich mit der ursprünglichen Punktwolke ermöglicht. Die Bauteile in der Punktwolke wurden segmentiert und klassifiziert, um festzustellen, wie präzise die Plugins die Bauteile erstellen und wie stark die Abweichungen aufgrund der Generalisierung der Bauteile sind. Die Standardabweichungen wurden gemäß den USIBD LOA-Klassen bewertet und ergaben, dass beide Plugins eine vergleichbare dargestellte Genauigkeit aufweisen.

Geodaten (GIS) und Bauwerksmodelle (BIM) in der Freileitungsplanung – Demonstrator, Softwaretest und Prozessanalyse

Masterarbeit von Georg Wolf (2022)

Building Information Modeling (BIM) bezeichnet eine kooperative Arbeitsmethodik, mit der auf der Grundlage digitaler Modelle eines Bauwerks die für seinen Lebenszyklus relevanten Informationen und Daten konsistent erfasst, verwaltet und in einer transparenten Kommunikation zwischen den Beteiligten ausgetauscht oder für die weitere Bearbeitung übergeben werden (Bundesministerium für Verkehr und Infrastruktur). Die BIM Methode hat sich aufgrund von zahlreichen Vorteilen in den letzten Jahren im Hochbau durchgesetzt und ist mittlerweile sogar für Projekte aus der öffentlichen Hand vorgeschrieben. Im Freileitungsbau findet die Arbeitsmethodik aktuell noch keine Anwendung. Durch den Erfolg der Arbeitsmethode im Hochbau und anderen Branchen stellt sich die Frage, ob BIM auch für den Freileitungsbau einen Mehrwert darstellt. Dies ist von besonderem Interesse, da u.a. auf Grund der Energiewende ein erheblicher Netzausbau des Freileitungsnetzes in Deutschland bis 2035 geplant ist. Mit den begrenzten Kapazitäten der Leitungsbaufirmen, kann BIM eine Möglichkeit darstellen, die Projekte effizient und fristgerecht durchzuführen und den Netzausbau zu realisieren. Aus diesem Grund wird im Rahmen dieser Masterarbeit der Einsatz von BIM in der Freileitungsplanung untersucht. Abbildung 1 zeigt den schematische Lebenszyklus einer Freileitung.

Zu Beginn wird dafür Grundlagenwissen in den Bereichen Freileitungen, Freileitungsplanung und BIM als Arbeitsmethode gelegt. Um tiefere Einblicke in den Planungsprozess von Freileitungen zu bekommen, wird die klassische Freileitungsplanung analysiert und dargestellt. Im Stand der Forschung wird bestätigt, dass BIM in der Freileitungsplanung noch neu ist. Das zeigt sich primär an den wenigen Publikationen und den jungen Veröffentlichungsdaten. Durch die Publikationen konnte ermittelt werden, dass es erste Ansätze gibt, BIM in der Freileitungspla-nung einzusetzen. Der Großteil der Publikationen stammt aus dem asiatischen Raum, wo die Methode bereits in einem Freileitungsprojekt angewandt wurde. Aus dem europäischen Raum konnte keine Publikation zu dem Thema gefunden werden. Es wurden Möglichkeiten zum Einsatz von BIM in der Freileitungsplanung erarbeitet. Dabei wurden die Vorteile der BIM Methode herausgearbeitet und auf die Freileitungsplanung bezogen. Weiterhin konnten 24 BIM Anwendungsfälle für die Freileitungsplanung identifiziert und beschrieben werden. Um ein Bestandsmodell als Planungsgrundlage zu schaffen, wurde der Einsatz von freien Geodaten untersucht. Als Ergebnis wurde eine Übersicht der verfügbaren freien Geodaten in den Bundesländern erstellt. In der Übersicht ist ein deutlicher Trend zu offenen Geodaten zu erkennen. Das bedeutet, dass immer mehr Bundesländer ihre Geodaten kostenfrei zum Download bereitstellen. Für die Freileitungsplanung ergibt sich die Chance, mit den Daten kostengünstig Bestandsmodelle für die Planung zu erstellen und die Daten in die Planung einzubeziehen.

In einem Demoprojekte konnten die Vorteile der dreidimensionalen Planung an einem praktischen Projekt für eine provisorische Stromversorgung veranschaulicht werden. Dabei konnten die Anwendungsfälle Bestandsmodellierung, Visualisierung und Bauablaufplanung erfolgreich im KorFin umgesetzt werden. Um das Projekt zu realisieren, wurden verschiedene Fachmodelle aus freien Geodaten und Bestandsdaten erstellt (siehe Abbildung 2).

Spezifische Bauteile wurden mit Revit modelliert und als Bauteilbibliothek eingebunden. Die KorFin Software erwies sich dabei als eine geeignete Anwendung für die Modellierung von Infrastruktur- und Freileitungsprojekten. Die Software konnte vor allem in der Bestandsmodellierung, der Visualisierung von großen Gebieten und Planungen sowie der Modellierung der Freileitungen selbst überzeugen. Das vollständige Modell ist in Abbildung 3 abgebildet.

Verbesserungspotential hat die Software im Bereich der IFC-Schnittstelle, bei den Exportmöglichkeiten der Mastlisten und Pläne sowie bei der Modellierung von Bauteilen, der Erstellung von neuen Gestängefamilien und bei der Modellierung von Sonderfällen. Die Kor-Fin Software ist daher im aktuellen Implementierungszustand eher ein Visualisierungstool, dass die Planung unterstützt. Eine vollständige Planung im KorFin ist noch nicht möglich. Um dieses Ziel zu erreichen, müssen u.a. der IFC-Export und weitere Schnittstellen zu seilme-chanischen Fachanwendungen geschaffen werden. In den strategischen Überlegungen zum Einsatz von BIM in der Freileitungsplanung wurde auf wirtschaftliche Aspekte für Kunden und Unternehmen eingegangen.

Der wirtschaftliche Nutzen lässt sich in der Einsparung von Zeit und Kosten sowie die nachhaltige Nutzung der Daten zusammenfassen. Auch die Entwicklung von neuen BIM Produkten wie z.B. die Bestandsmodellierung oder BIM-Consulting als Dienstleistung sind möglich. Es wurde die Prognose aufgestellt, dass die BIM Methode in den nächsten Jahren an Relevanz in der Freileitungsbranche gewinnen wird, wie es in anderen Branchen zu beobachten ist. Durch den Ein-satz von BIM in dieser frühen Pionierphase besteht damit die Chance auf einen zukünftigen Wettbewerbsvorteil. Zusätzlich besteht die Möglichkeit sich aktiv an der Schaffung von Normen zur Modellierung von Freileitungen zu beteiligen.

Abschließend werden Schritte zur BIM Einführung in einem Unternehmen am Beispiel der LTB Leitungsbau GmbH betrachtet. Als Einführungskonzept wird der BIM Planning Guide for Facility Owners von der Pennsylvania State University vorgestellt. Anschließend wird die Strategische Planung des Einführungskonzeptes mit den Schritten Analyse, Ausrichtung und Entwicklung auf die LTB Leitungsbau GmbH angewandt. In der Analyse des IST-Zustandes wurde ermittelt, dass es bereits Bemühungen zur BIM Einführung im Unternehmen gibt. Die LTB befindet sich dabei noch am Anfang bzw. in der Vorbereitungsphase des Einführungsprozesses. Durch die Einstellung eines BIM-Experten im IT-Bereich, die Formung eines BIM Kernteams und der Unterstützung der Geschäftsführung sind sehr gute Voraussetzungen für die Einführung gegeben. In der Ausrichtungsphase wurden projekt- und unternehmensspezifische BIM Ziele für die LTB definiert und Entwicklungsschritte zur Erreichung der BIM Ziele abgeleitet. Um den Einführungsprozess zu veranschaulichen wurde eine theoretische Roadmap erstellt.

Vergleich der geodätischen Qualität von Ko-Registrierungsverfahren für die Dokumentation von Brückenbauwerken

Bachelorarbeit von Sebastian Preußel (2022)

Die Software SfM2BIM ist das Ergebnis der Dissertation von Dr. Tim Kaiser und wird derzeit im SMWK- Forschungsprojekt VideoBIM von der Fakultät Geoinformation in Kooperation mit den Fakultäten Informatik/Mathematik und Bauingenieurwesen an der HTW Dresden weiterentwickelt. SfM2BIM stellt einen neuartigen Ansatz in der Erzeugung registrierter Punktwolken auf Basis von Structure from Motion dar. Hierbei wird diese nicht klassisch über Passpunkte orientiert und georeferenziert, sondern mithilfe eines bestehenden BIM-Modells ko-registriert. Der im Rahmen der Bauwerksüberwachung zur Erstellung eines As-Built-Modells notwendige Prozess vereinfacht sich dabei grundlegend, da zeitintensive Planung und geodätische Vorarbeit entfallen.

Das Verfahren wurde hier anhand eines Vergleichs unter realen Bedingungen auf seine Praxistauglichkeit geprüft. Dabei stand insbesondere die Registrierungsqualität im Vordergrund, zumal diese im geodätischen Kontext der Bauwerksüberwachung und Baufortschrittsdokumentation mittels BIM eine übergeordnete Rolle einnimmt.

Im praktischen Teil wurde nach geodätischer Vorarbeit mit Netzausgleichung und Passpunktbestimmung jeweils eine Punkwolke des Brückenbauwerks Verkehrszug Sternstraße im SfM-Verfahren sowie im TLS-Verfahren erzeugt und anschließend absolut über Passpunkte registriert. Ein BIM-Modell und die ko-registrierte SfM-Punktwolke wurden für die Tests bereitgestellt. Darauf folgend konnte der Vergleich durchgeführt werden, wobei das BIM-Modell jeweils als Referenz dient und die qualitative Einordnung der Punktwolken ermöglicht. Zur Anwendung kamen zum Beispiel Schnitte in Autodesk Revit und Distanzberechnungen in der Software CloudCompare.

Bei der vergleichenden Analyse stellte sich heraus, dass sich die Registrierungsqualität der beiden absolut registrierten Punktwolken auf einem hohen Niveau bewegt, grobe Abweichungen vom Modell waren nicht auszumachen. Bei der zu vergleichenden Punktwolke aus SfM2BIM konnten grobe Registrierungsfehler festgestellt werden, im Besonderen eine Verdrehung entlang der Brückenachse. In Bezug auf die reine Punktwolkenqualität ließ sich beobachten, dass TLS die meisten Vorteile bietet, was auf das direkte Messverfahren rückzuführen ist.

Aus dem Vergleich war abzuleiten, dass SfM2BIM im momentanen Entwicklungszustand nicht gleichermaßen für die Generierung eines As-Built-BIM-Modells geeignet ist, wie die Verfahren der absoluten Registrierung. Bezüglich der Punktwolkenqualität wird jedoch eine ähnlich hohe, wie bei der absolut registrierten SfM-Punktwolke erreicht.

Zumal die für die Testdatenerzeugung betrachtete Brücke nur wenige planare Flächen aufweist, stellt sie keine optimale Geometrie für das SfM2BIM-Verfahren dar. Da jedoch selbst für diese zumindest eine Registrierung erfolgen konnte, ist davon auszugehen, dass für besser geeignete Gebäude schon jetzt genauere Ergebnisse zu erwarten sind. Auch mit Abweichungen wie in den Ergebnissen wäre eine Nutzung in einem gewissen Spektrum denkbar, beispielsweise zur Verifizierung eines Modells in der Baufortschrittsüberwachung. Dies jedoch ist in unabhängigen Versuchen zu überprüfen.

Automation und Workflows von geodätischen Prozessen am Beispiel der Software GEOgraf

Bachelorarbeit von Alexander Bong (2022)

Mit der GEOgraf Version 10.0c wurden durch die HHK Datentechnik GmbH Anwendungen eingeführt, die auf der Grundlage von Automationen eine schnelle und sichere Arbeit mit Geodaten gewährleisten. Das Ziel dieser Arbeit war es zu untersuchen, wie konkrete Neuerungen dieser Version in Arbeitsprozesse der Geokart Ingenieurvermessungsgesellschaft mbH integriert werden können. Dazu zählen die Einführung von Regelprüfungen, die digitale Erfassung und Weiterverarbeitung von Sachdaten und die Möglichkeiten der Stapelplotausgabe bei Großprojekten. Für alle Analysen wurden geeignete Beispieldaten verwendet, um neue Methoden in Arbeitsprozesse einzubinden. Die erstellten Methoden wurden in Workflows umgesetzt.

Die GEOgraf Version 10.0c bietet erstmals die Option der Prüfung während der Erstellung der Daten. Bisher sind Verschneidungstests, Abstandstests, Topologische Tests und Sachdatentests möglich. Die Umsetzbarkeit und individuelle Nutzbarkeit von Regelprüfungen wurde anhand einer Ideensammlung geprüft. Für Ver- und Entsorgungsleitungen ist ein grundlegender Prozess entstanden, der die Nutzung der korrekten Punkt- und Linienarten kontrolliert. Weiterhin werden zulässige Linienverschneidungen und die Notwendigkeit der Beschriftung von Bäumen geprüft. Die zulässigen Arten können für die Prüfungen jederzeit verändert werden. Es existieren drei verschiedene Möglichkeiten die Datenregeln zu prüfen. Die Prüfung kann „On-the-fly“, und somit bei der Konstruktion von Objekten, als Abschlusskontrolle nach Beendigung des Projekts oder beim Export der Grafik durchgeführt werden.

Die digitale Erfassung und Weiterverarbeitung von Sachdaten wurden am Beispiel von Bäumen durchgeführt. Der Prozess sieht die digitale Erfassung der Sachdaten mit Tachymetern vor. Weiterhin werden diese exportiert und unmittelbar in GEOgraf eingelesen. Es erfolgt eine Speicherung aller Sachdaten in einer angelegten Tabelle der auftragsbezogenen Datenbank. Die entsprechenden Bäume können mithilfe einer Makrodatei mit ihrer Art, dem Stammumfang und dem Kronendurchmesser beschriftet werden. Zudem kann eine Baumkrone anhand der Sachdaten gezeichnet werden.

Die Stapelplotausgabe bei Großprojekten eröffnet die Möglichkeit alle Plotboxen auf verschiedenen Blättern in der gewünschten Reihenfolge auszugeben. Dafür wird ein Stempel unter der Nutzung von Variablen erstellt. Diese ermöglichen eine automatische Übernahme gewählter Einstellungen oder Namen für jede Plotbox. Die Erstellung einer Legende wird mit dem Modul der automatischen Legende in GEOgraf durchgeführt. Diese kann somit individuell gestaltet werden. Die Stapelplotausgabe ist lediglich als MultiPage PDF möglich. Eine Nachbearbeitung kann nicht erfolgen. Das Exportformat GEOgraf-Zeichnung ermöglicht dies, lässt allerdings keine Ausgabe als Stapelplot zu, da zu jeder Plotbox eine eigene Datei erstellt wird.

Für alle drei Schwerpunkte der Arbeit wurden betriebsinterne Workflows angefertigt, die in Workshops vorgestellt und diskutiert wurden.

Aufbereitung von Geodaten oder digitalen Bauwerksmodellen für virtuelle Welten von Adhoc-Konferenzsystemen am Beispiel von WorkAdventure

Masterarbeit von Viet Tien Le (2021)

Im Zuge der Corona-Pandemie sind digitale Kommunikationswerkzeuge weiter stärker in den Fokus gerückt. Dabei sind die Nutzerzahlen von klassischen Konferenzsystemen, wie z.B. Zoom, stark gewachsen. Doch solche statischen Systeme besitzen zwei wesentliche Nachteile, die fehlende Möglichkeit für spontane, informelle Unterhaltungen und das Auftreten des Phänomens "Zoom-Fatigue" bei regelmäßiger Anwendung. Als Lösung dieser Probleme können Adhoc-Konferenzsysteme dienen. Diese erweitern statische Konferenzsystem um eine räumliche Komponente in Form von virtuellen Welten, welche diese Probleme beheben bzw. abmindern. In dieser Arbeit soll am Beispiel Work Adventure aufgezeigt werden, wie die virtuellen Welten auf Basis von BIM-Modellen erzeugt werden kann.

Um diese Frage zu beantworten, ist eine prototypische Implementierung entworfen und erstellt worden, welche einen möglichen Ansatz zur Erstellung der Karten aufzeigt. Zur Beurteilung des Prototyps sind die erzeugten Karten anhand von definierten Bewertungskriterien evaluiert und daraus etwaige Einschränkungen geschlussfolgert.

Um die Zielstellung zu erreichen, erfasst die Anwendung nur die relevantesten Bauteile aus dem IFC-Modell und wandelt diese in geometrische Objekte, welche anschließend als Basis für die Kartenerstellung dienen. Konkret ist die Implementierung auf drei unterschiedliche IFC-Modelle angewendet worden und die erzeugten Resultate bewertet.

Die Bewertung der Karten zeigt, dass auf Grundlage eines Stockwerks aus einem IFC-Modell die erzeugte Karte den Grundriss zu einem hohen Grad nachbildet. Dabei wird sichtbar, dass die Komplexität der Modelle Einfluss auf die Replikation hat. Daraus resultieren Fehler in der Karte bei der Rekonstruktion des Geschosses von Modellen mit vergleichsweiser hoher Komplexität. Aus den beobachteten Mängeln lassen sich Grenzen und Einschränkungen der Implementierung formulieren. Aus technischer Sicht funktioniert die gewünschte Verwendung der Karten auf Work Adventure zu weiten Teilen ohne Probleme. Allerdings handelt es sich bei den generierten Karten von Nachbildung des Rohbaus eines Stockwerks. Ob die Karten in dieser Form aus Nutzer*in-Perspektive als virtuellen Raum für Work Adventure genutzt werden können oder diese noch manuell gestaltet werden müssen, ist eine Frage für zukünftige Forschungen.

Erzeugung von großmaßstäbigen Umgebungsmodellen für physische 3D-Modelle mit subtraktiven Verfahren (Laser-Cutter) – Vermessung, Modellierung und Validierung

Bachelorarbeit von Ferdinand Rindt (2021)

Einzelne Fakultätsgebäude der Hochschule für Technik und Wirtschaft Dresden wurden mit­tels eines 3D-Druckverfahrens im Maßstab 1:250 angefertigt. Langfristig sollten diese Mo­delle in einem Gesamtmodell des HTW-Campus, auch im Maßstab 1:250, dargestellt werden.

Dabei wurde das subtraktive Herstellungsverfahren Laser-Cutten den ähnlichen Verfah­ren CNC-Fräsen und 3D-Druck vorgezogen. Während der vorrausgegangenen Arbeiten stellte sich die Frage, ob auch physische dreidimensionale Umgebungsmodelle durch einen Laser-Cutter herstellbar wären. Es wurde ein Realweltobjekt gewählt, welches eine geografi­sche Verbindung zur Hochschule für Technik und Wirtschaft besaß, man entschied sich für den Beutlerpark, da dieser einen starken Wiedererkennungswert anhand seiner höhenmä­ßigen Anstiege und Strukturen in einem Modell hätte. Um es auch in Verbindung mit dem Campus-Modell präsentieren zu können, wurde auch dafür der Maßstab 1:250 gewählt.

Es musste sich für eine der drei geometrischen Repräsentationsformen Raster, Höhenlinien oder Dreiecksvermaschung (TIN) als Grundlage der weiteren Bearbeitung entschieden werden, man entschied sich schlussendlich für Höhenlinien. Bei der Aufbereitung der Daten wurden die bekannten Datentypen Vektor und Gravur des Laser-Cutters bereits bedacht und Überlegungen angestellt, welche sich für die Herstellung eignet und mit welchen Verfahrens­weisen die unterschiedlichen Schichten erstellt werden könnten. Es wurde aufgezeigt, dass es möglich ist, 2D-Modelle und physische 3D-Modelle mithilfe eines Laser-Cutters herzu­stellen. Dabei wurde einerseits die Herstellung nur durch Linien (Vektoren) und andererseits durch Flächen (Gravuren) betrachtet und praktisch durchgeführt. Die Ergebnisse der Bear­beitung nur mit Vektoren waren nicht erfolgreich. Es gelang nicht, die Schnitte so eng zuei­nander durchzuführen, dass keine Zwischenwände mehr erhalten blieben. Außerdem war schon bei größeren Abständen die thermische Belastung für das Material zu hoch, so dass die Versuche abgebrochen werden mussten. Aus diesen Gründen wurden diese beiden Kon­zepte des Linien-Cut-Verfahrens als nicht zielführend angesehen. Die Herstellung auf der Grundlage von Gravuren lieferte gute Ergebnisse und wurde für die weitere Fertigung des physischen 3D-Modelles genutzt. In den Einstellungen des Laser-Cutters war es nicht mög­lich, eine genaue Schneidetiefe und Laserstrahlbreite zu definieren. Diese mussten aus einer Kombination der verwendbaren Einstellungen Leistung, Geschwindigkeit, Frequenz, Auflö­sung und Anzahl der Durchläufe ermittelt werden. Falls durch ein kontinuierliches Erhöhen bzw. Verringern einzelner Einstellungen eine äquivalente Erhöhung der Schneidetiefe erkenn­bar wäre, sollte eine Näherungsformel dafür aufgestellt werden. Jedoch erhielt man bei identischen Einstellungen unterschiedliche Ergebnisse bei verschiedenen Restmaterial­stärken, daher war eine Näherungsformel nicht aufstellbar. Die Bearbeitung zog sich über mehrere Programmschnittstellen hinweg vom Export der Messdaten aus dem Tachymeter über deren Datenaufbereitung im Programm GEOgraf, den Zeichenprogrammen AutoCAD und Adobe Illustrator bis zur Laser-Cutter Software Epilog Dashboard und Epilog Management. Dabei wurde die Kompatibilität der Programme zuei­nander in Bezug auf Struktur der Import- und Exportformate, die Weiterverarbeitung von to­pographischen Objekten wie Punkte, Linien, Flächen und Volumen sowie die praktische Um­setzung der Herstellbarkeit dieser Objekte mit dem Laser-Cutters betrachtet. Bei den Her­stellungen der 2D-Modelle und physischen 3D-Modelle wurden größtenteils die topographi­schen Objekte Linien und Flächen verwendet, welche durch Vektoren und Gravuren gut im Laser-Cutter implementiert sind.

Insgesamt war die Kompatibilität der genutzten Programme gut. Die meisten Anpassungen innerhalb eines Programmes zur Vorbereitung der Weiter­gabe in das folgende Programm beruhten auf der Vereinfachung der Bearbeitung im finalen Programm Epilog Dashboard. Topographische Objekte wie Punkte und Volumen konnten zwar modelliert und exportiert werden, jedoch wurden sie nicht richtig erkannt von den Pro­grammen Adobe Illustrator und Epilog Dashboard, wodurch es sich anbot diese durch die bewährten topographischen Objekte Linien und Flächen darzustellen.

Die Maßhaltigkeit des Modells ist durch auftretende subjektive Fehleinschätzungen belastet und kann nicht durch das Gerät selbst kontrolliert werden. Während der Durchführungen wurden weitere Erkenntnisse gewonnen, welche die Qualität und Maßhaltigkeit des Modells verbesserten. Zum Zeitpunkt der Bearbeitung wurden punktuelle Kontrollen der Maßhaltig­keit durch den internen Messfühler des Laser-Cutters und den Messschieber mit digitaler An­zeige, durchgeführt. Kontrollen zur flächenhaften Maßhaltigkeit mittels Streifenlichtscanner und CloudCompare erfolgten im Nachhinein. Es sollte eine Kombination der unterschiedli­chen Herstellungsverfahren angestrebt werden, da die Problemstellen und Nachteile einer Herstellungsart einfach durch die Nutzung eines anderen Verfahrens beseitigt werden kön­nen. Dazu ist aber schon bei der Planung der Er-stellung von Modellen eine Kenntnis über alle Verfahren nötig, um Arbeitsaufwand und Zeit-bedarf abschätzen zu können.

Vergleichende Validierung der geodätischen Qualität von statischem und kinematischem Laserscanning im Gebäudeaufmaß

Bachelorarbeit von Benjamin Rabisch (2021)

In dieser Bachelorarbeit wurden verschiedene Erfassungsmethoden von Laserscannern im Gebäudeaufmaß untersucht. Hierfür wurde das Mensa-Gebäude der HTW Dresden mit drei verschiedenen Laserscannern erfasst. Diese Laserscanner unterschieden sich grundlegend ihrer Art der Datenerfassung. Der FARO Focus S150 ist ein statischer Laserscanner, der das Messobjekt aus mehreren Standpunkten aufnimmt. Der GeoSLAM ZEB Horizon wiederum ist ein kinematischer Laserscanner, der seine Messdaten in der Bewegung erfassen kann. Als dritter Scanner wurde der FARO Swift untersucht, der die Elemente des statischen und kinematischen Laserscannings kombiniert.

Ziel der Arbeit war es, die Unterschiede zwischen den Messmethoden bezüglich der Datenqualität und des Arbeitsaufwandes aufzuweisen und zudem zu untersuchen, ob die Integrierung von Festpunkten in die Datenauswertung lohnenswert ist.  

Die in den Messungen erhaltenen Messdaten wurden auf verschiedene Weisen weiterverarbeitet. Hierbei wurde u.a. die Menge und Verteilung der verwendeten Festpunkte variiert.

Die statischen Scans des FARO Focus S150 wurden mittels der Registrierungssoftware Scantra registriert. Diese Software beruht primär auf einer ebenenbasierten Registrierung und liefert eine spannende Alternative zu den gängigen zielmarken- und punktwolkenbasierten Registrierungsmethoden.

Die kinematischen Scans des GeoSLAM ZEB Horizon wurden mittels der Herstellersoftwares GeoSLAM Hub und GeoSLAM Draw weiterverarbeitet. Für die Einbindung von tachymetrisch

bestimmten Festpunkten konnten zudem drei verschiedene Transformationsmethoden verglichen werden. Die Messung des FARO Swift wurde in FARO Scene verarbeitet.

Somit konnten insgesamt 17 unterschiedliche Datensätze generiert und schließlich miteinander verglichen werden. Die Qualitätsanalyse der 17 Punktwolken wurde anhand von hochpräzisen Referenzpunkten (Standardabweichung < 1mm) durchgeführt. Bei dieser Untersuchung stellte sich heraus, dass die statischen Scans des FARO Focus S150 mit einer Standardabweichung der Koordinatenunterschiede von 3 mm eine erheblich höhere Genauigkeit aufwiesen, als die kinematischen Scans der anderen beiden Geräte (GeoSLAM ZEB Horizon 14 – 21 mm, FARO Swift 11 mm). Zudem wurden die Genauigkeiten der Datensätze mit den für die Generierung benötigten Zeitaufwänden ins Verhältnis gesetzt, um Rückschlüsse auf die Effizienz der verschiedenen Methoden zu erlangen. Hierbei konnte die höchste Effizienz bei dem Datensatz vom FARO Focus S150, welcher ohne die Nutzung von Festpunkten registriert wurde, ausgewiesen werden. Der Datensatz des GeoSLAM ZEB Horizons, welcher über Festpunkte durch die Methode „3D non linear“ transformiert wurde, wies die niedrigste Effizienz auf.

Die Untersuchungen über die Integrierung von Festpunkten ergaben, dass bei den statischen Scans keine erheblichen Genauigkeitsgewinne durch die Integrierung von sehr vielen Festpunkten erreicht werden konnte, was auf eine bereits sehr hohe Effizienz der ebenenbasierten Registrierung in Scantra schließen lässt. Bei den kinematischen Scans des GeoSLAM ZEB Horizon konnten durch die festpunktgestützte Transformationsmethode „Adjust to Control“ kaum Genauigkeitssteigerungen erkannt werden, bei der Transformationsmethode „3D non linear“ in GeoSLAM Draw veringerte sich die Standardabweichung um wenige Millimeter.

Neben der absoluten Genauigkeit wurde das Messrauschen untersucht. Hierfür wurde für die beiden FARO Scanner eine Standardabweichung von 0,8 mm ermittelt. Für den GeoSLAM Zeb Horizon konnte eine Standardabweichung von 6,7 mm ermittelt werden.

Untersuchung und Handreichung zur internationalen Terminologie für den Themenbereich „Geodäsie und BIM“

Masterarbeit von Markus Schnarr (2021)

Building Information Modeling (BIM) ist eine Methode der optimierten, softwareunterstützten Planung, Ausführung und Bewirtschaftung von Bauvorhaben, basierend auf der aktiven Vernetzung aller am Bau Beteiligten. Das virtuelle 3D Modell bildet den Kern der Methode, aber die Semantik (fachliche Bedeutung der Objekte) bildet das führende Ordnungskriterium.

In internationalen BIM-Projekten, bei der Standardisierung, im wissenschaftlichen Diskurs und in der Lehre führen Übersetzungsfehler (der Semantik) zu Missverständnissen. Hier soll die Masterarbeit auf unterschiedlichen Ebenen Abhilfe schaffen. Die Querschnittsaufgabe ist die fachlich präzise Übersetzung vom Deutschen ins Englische und umgekehrt.

Semi-automatisches Testbed zur Prüfung der Berechnung von räumlich-topologischen Prädikaten nach dem DE-9IM Schema

Masterarbeit Walther Schönbrodt-Rühl (2021)

Ziel dieser Arbeit war es, die Berechnung topologischer Beziehungen nach dem DE-9IM von Geometriebibliotheken zu prüfen. Zentral war dabei der Vergleich von drei üblichen Geometriebibliotheken mit der von Enrico Romanschek (HTW Dresden), Prof. Christian Clemen (HTW Dresden) und Prof. Wolfgang Huhnt (TU Berlin) neu entwickelten Geometriebibliothek mit dem Arbeitstitel „Topoloco“. Die Softwarebibliothek basiert auf einem neu entwickelten Ansatz zur Raumzerlegung von Enrico Romanscheks Promotionsvorhaben „Survey2Solid“. Topoloco wurde mit den Geometriebibliotheken PostGIS, SpatiaLite und NetTopologySuite verglichen. Zunächst werden in der Masterarbeit die Grundlagen des DE-9IM erläutert. Basierend auf diesem konzeptionellen/mathematischen Modell wurde für den Vergleich der Geometriebibliotheken ein semi-automatisches Testbed entwickelt. Der Test ist so konzipiert, dass die Eigenschaft der Invarianz der topologischen Beziehungen gegenüber geometrischen Transformationen (Skalierung, Translation und Rotation) mit sehr vielen numerischen Beispielen geprüft wird. Hierfür werden die Testdaten (Punkte, Linien, Polygone in allen topologischen Kombinationen) transformiert und anschließend geprüft, ob die Geometriebibliotheken weiterhin die gleiche topologische Beziehung berechnen.

Ein wesentliches Ergebnis des Tests ist, dass alle getesteten Geometriebibliotheken das DE-9IM und die Hierarchie der topologischen Prädikate richtig umgesetzten, wenn zwei   Geometrien ohne kritische Schnitte vorliegen. Festgestellt wurde aber, dass die Berechnungen der topologischen Beziehungen von PostGIS, SpatiaLite und NetTopologySuite eine große Fehlerquote aufweisen, wenn mit sehr kleinen oder sehr großen Koordinatenwerten gerechnet wird. Auch schleifende Schnitte können fehlerhafte topologische Prädikate verursachen.

Die an der HTW Dresden entwickelte Geometriebibliothek Topoloco weist eine deutlich geringere Fehlerquote auf und kann zudem angeben, bei welchen Geometrien die Berechnung nicht mehr zuverlässig ist. Zu betonen ist dabei, dass Topoloco bei der Translation nur korrekte Ergebnisse berechnet, während die handelsüblichen Bibliotheken mit sehr großen Koordinatenwerten nicht mehr zuverlässig rechnen. Dementsprechend ist zu schlussfolgern, dass Topoloco topologische Prädikate insgesamt robuster berechnen kann.

Experimentelle Untersuchung zur Registrierung von Punktwolken aus Bildverbänden mit Ebenen aus digitalen Bauwerksmodellen (BIM)

Bachelorarbeit von Nicole Fricke (2021)

Digitale Bauwerksmodelle, welche durch die Methode ‚Building Information Modeling‘ entwickelt wurden, spiegeln in der tatsächlichen Praxis oft nur einen stark abstrahierten Planungszustand wieder, wobei im Modell Bauteile wie beispielsweise Heizkörper, Fensterrahmen oder Einbauten der technischen Gebäudeausrüstung fehlen.

Durch Punktwolken, die sich durch eine gute Digitalisierungsbasis auszeichnen, kann das Modell bauteilorientiert ergänzt werden. Die Erzeugung solcher Punktwolken kann durch photogrammetrische Verfahren unter Einsatz von ‚Structure from Motion‘-Werkzeugen erfolgen. Dieses Vorgehen zeichnet sich gegenüber dem terrestrischen Laserscanning dadurch aus, dass das Messinstrument lediglich eine Kamera ist, wodurch die Kosten für die Objektaufnahme geringgehalten werden können. Für die korrekte Verwendung und Analyse der bildbasierten Punktwolken müssen diese mit einer 7-Parameter-Transformation, das heißt einer Helmerttransformation mit Maßstabsanpassung, in das Gebäudekoordinatensystem transformiert werden. In der Regel werden dabei Referenzpunkte für die Schätzung der Transformationsparameter verwendet. Allerdings ist der Aufwand Passpunkte im Gebäudekoordinatensystem zu vermarken und einzumessen oft unverhältnismäßig zum Nutzen.

In der Dissertation von Tim Kaiser wurde aufgrund dessen ein komplexes Verfahren entwickelt, bei welchem Punktwolken aus einer SfM-Pipeline mit Objektebenen aus digitalen Bauwerksmodellen, statt mit künstlich vermarkten Passpunkten, registriert werden können.

Im Rahmen der Bachelorarbeit wurde die generelle Methodik sowie die konkrete Softwareimplementierung an weiteren Objekten getestet. Die Räumlichkeiten eines Altbaus dienten dabei als Testobjekte. Für diese galt es eine Datengrundlage in Form eines Bildverbandes und entsprechenden BIM-Modells zu schaffen, welche anschließenden mit der entwickelten Prozessierungspipeline ausgewertet werden konnten. Dabei wird auf Beziehungen zwischen Wand- bzw. Flächeninformationen aus dem BIM und dreidimensionalen Liniensegmenten, die aus Bilddaten extrahiert werden, zurückgegriffen. Durch das Matching dieser Ebenen und Linien kann die Schätzung der Transformationsparameter (Rotation, Translation, Maßstab) erfolgen.

Neben der Testung und Anwendung der Prozessierungspipeline wurde analysiert, wie die Aufnahme der Testobjekte konzipiert sein muss beziehungsweise welche Objekte geeignet für die Anwendung der entwickelten Software sind. Um eine erfolgreiche Rekonstruktion des zu untersuchenden Objektes zu erhalten sowie Liniensegmente detektieren und extrahieren zu können, ist eine ausreichende Texturierung der Objektbegrenzungsflächen Grundvoraussetzung.
Weiterhin konnte durch die Integration der transformierten Punktwolken ins BIM-Modell und Vergleich dieser Untersuchungen hinsichtlich erreichter Qualität der Ergebnisse und Zuverlässigkeit der entwickelten Software erfolgen.

Das angewandte Konzept zur Transformation lokal erzeugter Punktwolken in das Koordinatensystem eines Gebäudemodells liefert das gewünschte Ergebnis. Durch die Verbindung von Ebenen aus einem BIM-Modell und extrahierten 3D-Liniendaten aus einem Bildverband ist es möglich die Punktwolke, ohne die Verwendung von Referenzpunkten korrekt zu registrieren.
Anwendung finden kann dieses Verfahren im Bereich des BIMs, um Ergänzungsmessungen für ein Gebäudemodell zu erstellen oder dieses generell zu aktualisieren. Auch beispielsweise Grundrisse für das entsprechende Objekt könnten aus der registrierten Punktwolke abgeleitet werden.

Untersuchung von Methoden zur Bestimmung von naturnahen Auen für die Regionalplanung

Masterarbeit von Henriette Pielenz (2019)

„Naturnahe Quellbereiche und Fließgewässer beziehungsweise Fließgewässerabschnitte mit ihren Ufer- und Auenbereichen (…) sind in ihren Biotop- und natürlichen Verbundfunktionen zu erhalten und von jeglicher Bebauung und Verbauung freizuhalten“ (Ziel 4.1.1.3 Landesentwicklungsplan (LEP) 2013 des Freistaat Sachsen). Mit der Umsetzung dieses Ziels ist u. a. der Regionale Planungsverband Oberes Elbtal/Osterzgebirge konfrontiert, da die Ziele des LEP bei der Regionalplanung zu berücksichtigen sind. Dafür müssen allerdings naturnahe Auengebiete ausgewiesen werden können. Diese Arbeit setzt an dieser Notwendigkeit an und untersucht verschiedene Methoden zur Bestimmung von naturnahen Auen.

Für die Bestimmung von naturnahen Auen werden zunächst Methoden aufgezeigt, wie sich anhand von den auentypischen Merkmalen Hydrologie, Geländeform, Boden, Vegetation und Geologie Auen bestimmen lassen. Zudem werden Methoden vorgestellt, wie sich mit Hilfe der Daten der Satelliten Sentinel-1 und Sentinel-2 bestimmte Merkmale von Auen bestimmen lassen. Dabei stellt sich vor allem der Index Normalized Difference Water Index (NDWI) als geeignet heraus, um Überschwemmungsgebiete zu identifizieren.

Für die Bestimmung der Naturnähe der Auengebiete werden verschiedene Methoden erläutert. Dabei werden die Gewässerstrukturbewertung, selektive Biotopkartierung und die Lebensraumtypen angewendet. Durch die Verschneidung der zuvor bestimmten potentiellen Auengebiete mit den Ergebnissen der Bestimmung der Naturnähe werden naturnahe Auengebiete ausgewiesen.

Dies und das Zusammenführen der sich als geeignet herausgestellten Methoden wird im entwickelten Workflow erläutert.

Es stellt sich heraus, dass die derzeit als naturnahe Auen identifizierbaren Gebiete für die Regionalplanung kaum geeignet sind, da sie flächenmäßig sehr klein sind und somit in den Regionalplänen nicht erkennbar wären.

 

Untersuchung zur effektiven Gebäudeinnenaufnahme mit anschließender Modellierung in Revit – Aufnahmetechnologien Handaufmaß mit DISTO, Photogrammetrie, terrestrisches Laserscanning

Bachelorarbeit von Annika Biber, Bianca Fabian und Michael Frenzel (2019)

Im Rahmen einer gemeinsamen Bachelorarbeit wurde mit den Aufnahmetechnolo­gien Handaufmaß mit DISTO, photogrammetrische Aufnahme und terrestrisches Laserscanning untersucht, welches Verfahren sich hinsichtlich der Kriterien Genauig­keit, Richtigkeit, Vollständigkeit sowie Wirtschaftlichkeit für eine effektive Gebäude­innenaufnahme am besten eignet. Des Weiteren wurde im Zuge der praktischen An­wendung der vorgenannten Aufnahmeverfahren die Vor- und Nachteile differenziert dargestellt, Hinweise zu geeigneten Anwendungsfällen abgeleitet und zusammenfas­send erläutert, ob ein kombiniertes Messverfahren zukünftig angestrebt werden sollte. Als Untersuchungsobjekt wurden dafür Räumlichkeiten des Mensagebäudes der Hochschule für Technik und Wirtschaft in Dresden gewählt. Die Datenerfassung und Modellierungsarbeiten der drei zu erstellenden Modelle bezogen sich in dieser Arbeit auf den Seminarraum M24, sowie den sich davor befindlichen Eingangsbe­reich und den Verbindungsgang zur Geräteausgabe. Diese wurden nachfolgend als Ergebnis von BIM-konformen 3D-Modellen dargestellt und für den Vergleich anhand von Kontrollmessungen mittels DISTO untereinander und mit der Realität verglichen.

Im Ergebnis konnte dabei festgestellt werden, dass im Hinblick auf Effektivität und Wirtschaftlichkeit die photogrammetrische Aufnahme sowie das terrestrische Laser­scanning, aufgrund der geringen Gesamtkostendifferenz, als bevorzugte Verfahren für die Gebäudeinnenaufnahme angewandt werden können. Infolge der umfassen­den Aufnahme- und Modellierungszeiten sollte das Handaufmaß als alleiniges Ver­fahren nicht verwendet werden. Hinsichtlich der untersuchten Modellierungsgenauig­keit mit einer maximalen Abweichung von 3cm konnte diese beim Handaufmaß zu 99% eingehalten werden. Demgegenüber konnte beim terrestrischen Laserscanning die Modellierungsgenauigkeit zu 92% und beim photogrammtetrischen Verfahren zu 76% realisiert werden. Bezugnehmend auf die Vollständigkeit aller wichtigen Elemen­te und Bauteile wurden in allen drei Modellen zufriedenstellende Ergebnisse erreicht. Zusammenfassend stellt die Kombination aus terrestrischen Laserscanning und dem Handaufmaß für Ergänzungsmessungen ein geeignetes Verfahren zur Gebäudein­nenaufnahme dar. Eine weitere Kombinationsmöglichkeit bietet das terrestrische Laserscanning mit dem photogrammetrischen Verfahren, da diese ebenfalls für gegenseitige Ergänzungsmessungen eingesetzt werden können.

 

Implementierung und Optimierung der statistischen Prozesskontrolle in einem Produktionsbetrieb

Bachelorarbeit von Romano Kernchen (2019)

Nach der Projektarbeit in der Qualitätsabteilung der Toyota Denso Deutsche Klimakompressor GmbH (TDDK) sollte die Statistical Process Control (SPC) auf andere Abteilungen erweitert werden. Damit dies in einem Produktionsbetrieb dieser Größe vollzogen werden kann, ist es notwendig die SPC als Gesamtheit zu verstehen, um dem Personal das Vertrauen gegenüber seinen ermittelten Messgrößen und der Statistik zu liefern.

Zur Schulung des Personals mussten daher zuerst die Grundlagen, die wichtigsten Begriffe, Definitionen und die 5M-Methode erläutert werden. Über Letztere zu wissen, ist essenziell, wenn es um eine fachgerechte Beurteilung von statistischen Auswertungen geht, da deren Einflüsse stetig wirken. Danach konnten die Messmittelfähigkeiten betrachtet werden, die sicherstellen, dass alle verwendeten Messmittel fähig sind. Dafür war es notwendig, diese nach aktuell gültigen Methoden zu überprüfen, schriftlich zu dokumentieren und damit ebenso statistisch nachzuweisen, dass verlässliche Messwerte im laufenden Produktionsprozess gemessen werden. Einen wesentlichen Bestandteil bildet dabei die Kalibrierung. Diese ist das Fundament für die Verlässlichkeit aller Werte, die vor der Produktion, produktionsbegleitend oder nach der Produktion für jegliche Art der Archivierung oder Auswertung erhoben werden.

Im nächsten Schritt galt es das erkannte Verbesserungspotential in Bezug auf den Einsatzbereich, die Rücksichtnahme kundenspezifischer Forderungen und die zukünftigen Auswertungen in die Regelkartentechnik zu implementieren.

Die Praxis vor der Abschlussarbeit zeigte, dass es äußerst schwierig war, einen Überblick anhand der Regelkartendateien für alle überwachten Prozesse zu erhalten. Eine globale Übersicht einer gesamten Abteilung sollte demnach realisiert werden, um dem Management ein Werkzeug zur Erkennung eines sofortigen Handlungsbedarfs zu geben. Ebenso soll eine Potentialanalyse ermöglichen, Messzyklen qualitativer und Personal kosteneffizienter zu organisieren. Um in der Übersicht den Schutz gegen Manipulation der Berechnungen zu gewährleisten, war eine Betrachtung zweckmäßiger Formeln oder die VBA-Programmierung zum Import der Werte unerlässlich.

Zuletzt wurde dem Personal eine Möglichkeit geboten ihre Messdaten zur statistischen Auswertung vom Messinstrument drahtlos in Excel zu übertragen. Fehlablesungen oder Fehleintragungen sollen somit vermieden werden. Dafür wurde im Zuge eines Pilotprojekts die Implementierung eines neuen Kommunikationssystems vorgenommen. Es wird der Aufbau dessen beschrieben, wobei auf die Installation der Hardware und auf die Einrichtung der Software eingegangen wird. Effektiv wird es zukünftig dem Werker ermöglicht, die zuvor analog geführten Daten mit gleichem Zeitaufwand, zur Beachtung der produktionsbedingten Taktzeiten, zu digitalisieren.

Im Ergebnis ist es erstmals möglich durch alle genannten Wissensanreicherungen, Verbesserungen und Umsetzungen sowie nach der Aufnahme von ausreichend Messgrößen die entworfene Regelkartentechnik in den verschiedenen Produktionsbereichen zu implementieren und das Personal entsprechend anzulernen.