Masterarbeit, 2026
193 Seiten, Note: 1,7
Die vorliegende Arbeit verfolgt das Ziel, ein Data Qualification Framework zu entwickeln, das Daten aus realer und simulierter Mikrogravitation nach wissenschaftlich überprüfbaren Qualitätskriterien analysiert, harmonisiert und für maschinelle Lernverfahren vorbereitet. Damit wird eine methodische Grundlage geschaffen, um Daten aus verschiedenen Plattformen interoperabel zu verknüpfen und ihre Eignung für KI-basierte Anwendungen objektiv zu bewerten. Im Zentrum steht die Frage, wie ein datenqualifikationsorientiertes Bewertungsmodell konzipiert werden kann, das die Vergleichbarkeit und Eignung mikrogravitationsrelevanter Datensätze für KI-basierte Simulationen und Digital-Twin-Anwendungen objektiv messbar macht.
Konzeption eines Frameworks zur Datenqualifikation für KI gestützte Simulationen von Experimenten in realer und simulierter Mikrogravitation für Digital Twin Anwendungen in der Raumfahrt
Die Untersuchung realer Mikrogravitation bildet das Fundament experimenteller Raumfahrtforschung. Sie umfasst Plattformen, die durch freien Fall oder orbitale Bewegung eine annähernd gewichtlose Umgebung erzeugen und dadurch die Schwerkrafteinflüsse auf physikalische, chemische und biologische Prozesse weitgehend eliminieren. Zu den zentralen Trägern zählen die ISS, Parabelflugzeuge sowie Falltürme. Diese Systeme unterscheiden sich erheblich in der Dauer, Stabilität und Qualität der erzeugten Mikrogravitation und prägen damit unmittelbar die wissenschaftliche Aussagekraft der erhobenen Daten.
Die ISS stellt die technisch komplexeste und wissenschaftlich bedeutendste Mikrogravitationsplattform dar. Seit ihrem Aufbau Ende der 1990er-Jahre ermöglicht sie Langzeitexperimente unter nahezu kontinuierlicher Mikrogravitation im Bereich von etwa 10⁻⁵ bis 10⁻⁶ g.25 Die Mikrogravitationsqualität an Bord hängt von verschiedenen Faktoren ab, etwa der Position im Stationsmodul, dem Betrieb von Pumpen, Gyroskopen oder Astronautenbewegungen, die als sogenannte g-Jitter Residualbeschleunigungen erzeugen.26 Zur Erfassung und Kompensation dieser Störungen werden kontinuierliche Messsysteme wie das Space Acceleration Measurement System (SAMS) und das Active Rack Isolation System (ARIS) eingesetzt.27 Sie ermöglichen die Quantifizierung von Vibrationen und die rechnerische Filterung von Artefakten in Datensätzen. Diese präzise Kontrolle ist entscheidend, um mikrogravitationsinduzierte Effekte eindeutig von mechanischen Störungen zu trennen.
Neben der ISS existieren verschiedene Plattformen zur Erzeugung temporärer Mikrogravitation. Parabelflüge ermöglichen etwa 20-25 Sekunden gewichtloser Phase pro Flugmanöver, während Falltürme Mikrogravitation für 4-10 Sekunden bereitstellen, abhängig von Fallhöhe und Vakuumbedingung. Beide Plattformen werden häufig für vorbereitende oder Validierungsexperimente genutzt, bevor diese auf der ISS oder in orbitale Satellitenmissionen übertragen werden.18 Jede Methode weist dabei spezifische Vor- und Nachteile auf: Während Parabelflüge eine flexible Versuchsumgebung und wiederholbare Testzyklen bieten, zeichnet sich der Drop Tower durch eine sehr stabile, vibrationsarme Schwerelosigkeit aus.19
Ein weiteres Forschungsfeld betrifft die Simulation von Mikrogravitation auf der Erde. Hierbei werden Geräte wie Clinostaten, RPM und RWV eingesetzt, um durch ständige Lageveränderungen der Proben die Wirkung der Gravitation über die Zeit zu neutralisieren.20 Diese Systeme sind kostengünstig, skalierbar und erlauben kontinuierliche Experimente unter Laborbedingungen. Allerdings unterscheiden sich die physikalischen Randbedingungen, insbesondere im Hinblick auf Scherkräfte, Restbeschleunigungen und mechanische Belastungen, signifikant von der realen Mikrogravitation im Orbit, was bei der Interpretation der Ergebnisse berücksichtigt werden muss.21
Kapitel 1 Einleitung: Dieses Kapitel gibt einen Überblick über die Mikrogravitationsforschung, die Problemstellung der Datenheterogenität sowie die Zielsetzung und Struktur der vorliegenden Arbeit.
Kapitel 2 Theoretischer Hintergrund: Es werden die physikalischen und biologischen Aspekte der Mikrogravitation, datenwissenschaftliche Konzepte wie FAIR-Prinzipien und Data Qualification Frameworks sowie methodische Ansätze zur Evidenzsynthese dargelegt.
Kapitel 3 Methodik: Dieses Kapitel beschreibt das mehrstufige Forschungsdesign, einschließlich der systematischen Datensammlung nach PRISMA-Protokoll, der standardisierten Datenextraktion, der Datenharmonisierung und Qualitätsbewertung mittels des Data Qualification Frameworks sowie der statistischen und qualitativen Synthese.
Kapitel 4 Ergebnisse und Diskussion: Hier werden die empirischen Resultate der Datenanalyse präsentiert, ein Überblick über die eingeschlossenen Studien gegeben, quantitative und qualitative Ergebnisse dargestellt und das abgeleitete Parameter-Core-Set sowie dessen wissenschaftliche Einordnung diskutiert.
Kapitel 5 Fazit & Handlungsempfehlung: Das Schlusskapitel fasst die zentralen Ergebnisse und Beiträge der Arbeit zusammen, erläutert deren Bedeutung für Forschung, Praxis und Raumfahrtanwendungen und leitet konkrete Handlungsempfehlungen sowie Perspektiven für die Weiterentwicklung des Frameworks ab.
Mikrogravitation, Datenqualifikation, KI-gestützte Simulationen, Digital Twin, Raumfahrt, Datenqualität, FAIR-Prinzipien, Evidenzsynthese, Parameter-Core-Set, Experimente, Metadaten, Reproduzierbarkeit, Interoperabilität, Raumfahrtforschung, Mikrogravitationsforschung
Diese Masterarbeit befasst sich mit der Konzeption eines Frameworks zur Datenqualifikation für KI-gestützte Simulationen von Experimenten in realer und simulierter Mikrogravitation, um Digital Twin Anwendungen in der Raumfahrt zu ermöglichen.
Die Arbeit konzentriert sich auf die Mikrogravitationsforschung (real und simuliert), Datenwissenschaft (Datenqualität, FAIR-Prinzipien), KI-gestützte Simulationen, Digital Twin Technologien, Evidenzsynthese und die Entwicklung eines Parameter-Core-Sets.
Das primäre Ziel ist die Entwicklung eines Data Qualification Frameworks, das Mikrogravitationsdaten nach wissenschaftlich überprüfbaren Qualitätskriterien analysiert, harmonisiert und für maschinelles Lernen aufbereitet. Die zentrale Forschungsfrage ist, wie ein solches Framework die Vergleichbarkeit und Eignung mikrogravitationsrelevanter Datensätze für KI-basierte Simulationen und Digital Twin-Anwendungen objektiv messbar machen kann.
Die Arbeit verwendet einen methodisch integrierten Mixed-Methods-Ansatz, der Elemente systematischer Evidenzsynthesen (PRISMA-ScR-Protokoll), datenqualitätsbasierte Bewertungsrahmen und qualitative Inhaltsanalyse kombiniert.
Der Hauptteil behandelt die theoretischen Grundlagen der Mikrogravitation und Datenwissenschaft, die detaillierte Methodik des Data Qualification Frameworks sowie die Ergebnisse der quantitativen und qualitativen Datenanalyse und deren Diskussion im wissenschaftlichen Kontext.
Mikrogravitation, Datenqualifikation, KI-gestützte Simulationen, Digital Twin, Raumfahrt, Datenqualität, FAIR-Prinzipien, Evidenzsynthese, Parameter-Core-Set, Experimente, Metadaten, Reproduzierbarkeit, Interoperabilität, Raumfahrtforschung, Mikrogravitationsforschung.
Metadatenstandards und Datenharmonisierung sind in der Raumfahrt essenziell, da die Forschung durch heterogene Missionsdaten, variable Sensorformate und unterschiedliche Dokumentationsniveaus geprägt ist. Eine Standardisierung ermöglicht reproduzierbare Forschung, eindeutige Beschreibung experimenteller Kontexte und die Integration von Daten über Disziplin- und Missionsgrenzen hinweg, was für KI-gestützte Analysen unerlässlich ist.
Reale Mikrogravitation auf Plattformen wie der ISS bietet nahezu ideale Freifallbedingungen, ist aber durch logistische und finanzielle Einschränkungen sowie Residualbeschleunigungen beeinflusst. Simulierte Mikrogravitation (z.B. durch Clinostaten) ist kosteneffizient und reproduzierbar, weist jedoch physikalische Abweichungen wie Scherkräfte und Rotationsartefakte auf, die die Ergebnisse im Vergleich zur Realität beeinflussen.
Das Parameter-Core-Set definiert jene Kernvariablen, die für simulationsgestützte Digital-Twin-Modelle unverzichtbar sind. Es identifiziert Parameter, die über verschiedene Datensätze, Plattformen und Disziplinen hinweg eine stabile und simulationsrelevante Bedeutung aufweisen, und schafft so eine belastbare, strukturierte Grundlage für die Modellierung komplexer Systeme.
Die Unsicherheits- und Biasanalyse ist ein integraler Bestandteil der qualitativen Synthese. Sie identifiziert systematische Verzerrungen und methodische Limitationen und wird als analytische Dimension verstanden, die die Vertrauenswürdigkeit von Datensätzen und Wirkpfaden beeinflusst, anstatt als Ausschlusskriterium. Dies ist entscheidend, um die Belastbarkeit nachfolgender Interpretationen und Modellableitungen angemessen zu bewerten.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

