Masterarbeit, 2018
96 Seiten, Note: 1,0
1 Introduction
1.1 Problem Definition
1.2 Research Objectives
1.3 Structure of the Thesis
2 Fundamentals
2.1 Claims Process
2.2 Field Observation
2.3 Causes of Failure
3 Data Management
3.1 Terminology
3.2 Data Quality
3.2.1 Data Quality Dimensions
3.2.2 Data Checker
3.2.3 Data Quality Improvement
3.3 Measurement Scales
3.4 Data Collection
3.5 Data Integration and Storage
3.6 Data Exchange
3.7 Data Mining Process
3.8 Data Analysis
4 Current State from Practice
5 Data Processing and Analysis Concept
5.1 Process Flow
5.2 Requirements
5.3 Data Basis
5.4 Benefits
5.5 Sample for the Failure Analysis
5.5.1 Complete and Partial Surveys
5.5.2 Simple Random Sample
5.5.3 Data-driven Sample
5.6 Preventive Failure Detection
6 Data Analysis Methods
6.1 Overview of the Methods
6.1.1 Cluster Analysis
6.1.1.1 Similarity Metrics
6.1.1.2 k-Means Algorithm
6.1.1.3 Advantages and Disadvantages
6.1.2 Classification
6.1.2.1 Artificial Neural Networks
6.1.2.2 Advantages and Disadvantages
6.2 Selection of an Appropriate Method
7 Application of the Selected Method
7.1 Clustering for the Data-driven Sample
7.2 Clustering for the Preventive Failure Detection
8 Conclusion
8.1 Summary
8.2 Outlook
Die Arbeit entwickelt ein Konzept zur Datenverarbeitung und -analyse, um die Effizienz der Schadensabwicklung in der Automobilindustrie durch einen zielgerichteten, datenbasierten Auswahlprozess von Fehlerstichproben zu erhöhen und gleichzeitig präventive Fehlererkennung in Echtzeit zu ermöglichen.
1.1 Problem Definition
Whenever a component or system of a vehicle fails, it is important to analyze the reasons for its failure in order to gain valuable knowledge and thus avoid these kinds of failures in the future. The causes of failure, which may arise on the vehicle during its usage, become more differentiated and complicated with the increasing use of highly complex components and systems.16 The defective parts go through a failure analysis. In case of vendor parts, the car manufacturer returns a percentage of the defective parts back to the supplier, which then analyzes the failures. Currently, the parts are either sent back on a random basis or as a full sample.17 However, the causes of failure are often similar. In practice, the amount of money, time, personnel, and equipment available is limited and it is not economical and feasible to analyze all the parts. In order to reduce the financial and time expenditure of the failure analysis, it is more useful to prioritize and only analyze those parts whose causes of failure differ from previously analyzed components. This can be realized by collecting and analyzing component-specific data during the entire product lifecycle and grouping those parts. The problem is not the availability of data. There are multiple sources of data which make lots of data available. The problem, however, is aggregating, structuring, and analyzing the relevant data and thus detecting patterns in it to rapidly identify root causes of failures and to fix the problems. Today, there is no one standard for this process and contemporary technologies, such as data mining or machine learning, are not used in an efficient way. A similar problem exists in the preventive failure detection. There is a lack of using these data analysis tools for standardized and far-reaching forecasts about future breakdowns.
1 Introduction: Führt in die Bedeutung von Big Data und Industrie 4.0 für die Automobilbranche ein und definiert das Problem ineffizienter, zufallsbasierter Schadensanalysen.
2 Fundamentals: Erläutert den klassischen Schadensabwicklungsprozess (Claims Process), die 8D-Methodik und die Herausforderungen bei der Felddatenbeobachtung.
3 Data Management: Beschreibt die Grundlagen der Datenverwaltung, einschließlich Datenqualität, Datenerfassung, -integration und -austausch sowie Ansätze für Data Mining.
4 Current State from Practice: Analysiert den derzeitigen Stand der Schadensanalyse bei Automobilherstellern, bei dem überwiegend zufällige Stichproben ohne standardisierte, datengestützte Verfahren eingesetzt werden.
5 Data Processing and Analysis Concept: Stellt das neue Konzept zur zielgerichteten Datenverarbeitung vor, das auf einer integrierten Datenbank basiert und die Grundlage für datengesteuerte Stichproben und präventive Fehlererkennung bildet.
6 Data Analysis Methods: Vergleicht verschiedene Analysemethoden wie k-Means-Clustering und Künstliche Neuronale Netze und begründet die Wahl des k-Means-Algorithmus.
7 Application of the Selected Method: Demonstriert die praktische Anwendung des k-Means-Clustering an fiktiven Beispielen für die Stichprobenselektion und die präventive Fehlererkennung.
8 Conclusion: Fasst die Ergebnisse der Arbeit zusammen und bietet einen Ausblick auf künftige Forschungsmöglichkeiten, etwa unter Einbeziehung von Tier-2-Lieferanten oder datenanalytischen Ansätzen im Softwarebereich.
Digitale Transformation, Schadensabwicklung, Datenanalyse, Prognose, Automobil-Lieferkette, datenbasierte Stichprobe, Data Mining, Knowledge Discovery, Felddaten, Fehleranalyse, präventive Fehlererkennung, Produktqualität, k-Means, Industrie 4.0
Die Arbeit beschäftigt sich mit der digitalen Transformation des Schadensabwicklungsprozesses in der Automobilindustrie durch den Einsatz von Data-Mining-Methoden zur Verbesserung der Qualität und Effizienz.
Die Kerngebiete sind das Management von Felddaten, die Optimierung von Stichprobenauswahlen für die Fehleranalyse und die präventive Fehlerüberwachung während der Nutzungsphase von Fahrzeugkomponenten.
Ziel ist die Entwicklung eines Konzepts, das auf Smart Data basiert, um statt zufälliger Stichproben gezielte, datenbasierte Stichproben für die Fehleranalyse zu generieren und potenzielle Ausfälle frühzeitig zu erkennen.
Zur Gruppierung der Komponenten und Identifizierung von Datenmustern wird schwerpunktmäßig der k-Means-Clustering-Algorithmus als Methode des unüberwachten Lernens eingesetzt.
Der Hauptteil umfasst theoretische Grundlagen zum Datenmanagement, eine Analyse der aktuellen Praxis, die Herleitung eines neuen Datenverarbeitungskonzepts sowie dessen beispielhafte Anwendung auf fiktive Daten.
Wichtige Begriffe sind Data-driven Sample, Preventive Failure Detection, Automotive Supply Chain, Data Mining und Claims Process.
Sie führen oft zu unnötig hohen Kosten und Zeitaufwand, da auch Komponenten analysiert werden, für die bereits Erkenntnisse vorliegen, während potenziell wichtige, neue Fehlermuster übersehen werden könnten.
Während die klassische Analyse nach einem Ausfall (reaktiv) erfolgt, nutzt die präventive Erkennung Echtzeitdaten und Vergleiche mit historischen Mustern, um kritische Zustände zu identifizieren, bevor ein Totalausfall eintritt.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

