„Water, water, every where, / Nor any drop to drink“
Samuel Taylor Coleridges, 1798
Die Notlage des Seemanns, die der obige Vers beschreibt, steht sinnbildlich für die Situation vieler Unternehmen und Organisationen in der heutigen digitalen Welt: Trotz einer bislang beispiellosen Verfügbarkeit von Daten fehlt es häufig an geeigneten Methoden, Technologien und Strukturen, um aus dieser Datenfülle belastbare Erkenntnisse und nachhaltigen Mehrwert zu generieren.
Das Data Intelligence Lab hat es sich zum Ziel gesetzt, diese Lücke zu schließen, indem es die datengestützte Entscheidungsfindung systematisch vorantreibt. Das Lab erforscht und entwickelt hierzu Methoden, Technologien und Werkzeuge für die Datenanalyse entlang der gesamten Datenwertschöpfungskette, von der Datenerfassung und Informationsextraktion, einschließlich Datenannotation und Qualitätssicherung, über Informationsintegration und -speicherung bis hin zur skalierbaren Datenverarbeitung und -analyse sowie dem Einsatz von maschinellem Lernen und künstlicher Intelligenz.
Forschung und Transfer in die Praxis sind dabei untrennbar miteinander verbunden. Neben öffentlich geförderten Drittmittelprojekten realisiert das Data Intelligence Lab zahlreiche anwendungsorientierte Forschungs- und Entwicklungsprojekte gemeinsam mit Industriepartnern wie Infineon, der Otto Group, TRUMPF SE oder der TÜV | DEKRA ARGE TP 21. Im Fokus stehen konkrete Herausforderungen aus der industriellen Praxis, insbesondere in den Bereichen Datenintegration, moderne Datenmanagementarchitekturen, Document AI, maschinelles Lernen, prädiktive Analytik sowie der produktive Einsatz künstlicher Intelligenz in komplexen Anwendungsszenarien.
Das Projekt „Ethische KI im E-Commerce“ der Otto Group one.O und der HTW Dresden entwickelt methodische und technische Ansätze für verantwortungsvolle, transparente und EU-AI-Act-konforme KI-Systeme. Im Fokus stehen automatisierte Bewertungsframeworks für KI-Chatbots, KI-generierte Bilder und Videos sowie KI-gestützte Liveshopping-Interaktionen, mit denen Fairness, Qualität und Vertrauenswürdigkeit systematisch messbar und absicherbar gemacht werden.
RHESIS entwickelt naturbasierte und nachhaltige Verfahren zur Stabilisierung von Hängen, Böschungen und Infrastrukturen, die zunehmend durch Klimaextreme belastet werden. Die Gruppe kombiniert Vegetation, biologische Prozesse und biopolymerbasierte Temporärsicherungen mit modernen digitalen Methoden wie Photogrammetrie, Laserscanning, Sensorik und KI-gestützter Analyse. In Reallaboren werden diese Ansätze unter realen Umweltbedingungen getestet. Ziel ist es, klimaresiliente, ressourcenschonende und praxistaugliche Stabilisierungsstrategien zu etablieren.
Die Zielstellung dieses Projekts besteht darin Active Learning an praktischen Anwendungsfeldern systematisch zu evaluieren, konkrete Handlungsempfehlungen für den Einsatz von AL in Annotationsprojekten abzuleiten und damit den zukünftigen Einsatz von Active Learning erheblich zu erleichtern.
TabEx - Halbüberwachter Lernansatz zur Tabellenerkennung und Datenextraktion aus Fahrzeuggenehmigungen (Laufzeit: 01.10.2023-30.09.2025, Industrie)
TabEx zielt darauf ab, mittels halbüberwachtem Lernen die Erkennung und Extraktion von Daten aus Tabellen in Fahrzeuggenehmigungs- dokumenten weitestgehend zu automatisieren. Durch die Verwendung von teils annotierten, teils unannotierten Daten werden Modelle trainiert , die in der Lage sind Fahrzeuginformationen präzise zu identifizieren und zu extrahieren. Dadurch wird der manuelle Aufwand zur Informationsextraktion minimiert und die strukturierte Erschließung der Daten massiv beschleunigt.
In diesem Forschungsprojekt sollen offene Daten, verschiedener Mobilitätsdienstleister in einen Mobilitätsgraphen integrierten sowie Maße für die Erreichbarkeit modelliert und unter Nutzung skalierbarer Datenanalysen-Plattformen auf dem Mobilitätsgraphen ausgewertet werden. Im Dialog mit Anwendern sind die zu entwickelnden Erreichbarkeitsmaße in Kontext konkreter Planungs- und What-if-Szenarien zu bewerten und Handlungsempfehlungen abzuleiten.