Diplomarbeit, 2013
118 Seiten, Note: 2,3
1 Einführung
1.1 Aufgabenstellung
1.2 Vorgehensweise und Aufbau der Arbeit
2 Datenanalyse für die Wissensgenerierung
2.1 Business Intelligence als Ordnungsrahmen
2.2 Datenbereitstellung im Data Warehouse
2.3 Datenqualität
2.4 Wissensgenerierung in der Datenanalyseebene
2.4.1 Data Mining im Rahmen des Knowledge Discovery in Databases
2.4.2 Umsetzung in der Praxis anhand von CRISP-DM und SEMMA
2.5 Ausgewählte Werkzeuge für das Data Mining
2.5.1 Clusterverfahren im Rahmen der Segmentierung
2.5.2 Entscheidungsbaumverfahren im Rahmen der Klassifikation
2.5.3 Künstlich neuronale Netze im Rahmen der Zukunftsprognose
2.5.4 Assoziationsanalysen im Rahmen der Beziehungsaufdeckung
2.6 Darstellung und Datenzugriff von Ergebnissen in der Visualisierungsebene
3 Produktion und Logistik
3.1 Stellenwert der Produktion und Logistik im Unternehmensumfeld
3.2 Logistische Zielgrößen
3.3 Anwendungsbereiche von Data Mining in der Produktion und Logistik
4 Anwendung von Data Mining in einem verketteten Produktionsprozess
4.1 Business-Understanding-Phase
4.2 Data-Understanding-Phase
4.3 Data-Preparation-Phase
4.4 Data-Modelling-Phase
4.4.1 Auftragsdurchlaufanalyse an der CNC-Drehmaschine
4.4.2 Bivariate Datenanalyse zur Bestimmung der wichtigsten Faktoren
4.4.3 Konstruktion eines Entscheidungsbaumes
4.5 Evaluationsphase
4.6 Deployment-Phase
5 Schlussbetrachtung
Die Arbeit untersucht das Potenzial von Data-Mining-Methoden zur Optimierung von Produktions- und Logistikprozessen. Die zentrale Forschungsfrage lautet, wo Data Mining in diesem Bereich eingesetzt wird und welchen konkreten Nutzen es für Unternehmen bietet, wobei die Anwendbarkeit anhand eines Prozessdatensatzes einer CNC-Drehmaschine validiert wird.
2.5.1 Clusterverfahren im Rahmen der Segmentierung
Mit Clusterverfahren wird die Absicht verfolgt, Elemente eines Datensatzes derart aufzuteilen, dass sie danach innerhalb der gebildeten Klassen möglichst ähnlich und zwischen den Klassen möglichst verschieden sind. Clusterverfahren ergeben somit typische Werkzeuge, um die Segmentierung des Datenbestandes durchzuführen. Dabei erfolgt die Clusterbildung nach identifizierten logisch verwandten Zusammenhängen, ohne dass die zu bildenden Klassen a priori bekannt sind. Essenziell für die Anwendung von Clusterverfahren ist die Vorab-Festlegung darüber, wie die Distanz bzw. Ähnlichkeit zweier Datenobjekte zu messen ist.
Die Literatur enthält unterschiedliche Kategorisierungsansätze für Clusterverfahren, die je nach Ausgangszustand der Daten und dem Ziel der Analyse genutzt werden können. Verbreitet ist die Unterscheidung zwischen unvollständigen/geometrischen, deterministischen sowie probabilistischen Verfahren. Relevant für das Data Mining sind die deterministischen Verfahren, die sich einerseits in hierarchische und anderseits in partitionierende Verfahren unterteilen. Die hierarchischen Verfahren bilden iterativ Partitionen des Datenbestandes, indem eine neue Partition aus einer Operation auf einer bestehenden Partition resultiert.
1 Einführung: Die Einleitung beleuchtet die zunehmende Bedeutung von Entscheidungsunterstützungssystemen angesichts komplexer werdender Märkte und steigender Datenmengen.
2 Datenanalyse für die Wissensgenerierung: Dieses Kapitel erläutert Business Intelligence, die Bedeutung der Datenqualität sowie grundlegende Methoden wie Clusteranalysen, Entscheidungsbäume, Neuronale Netze und Assoziationsanalysen.
3 Produktion und Logistik: Hier werden die spezifischen logistischen Zielgrößen sowie der Stellenwert und die Potenziale von Data Mining innerhalb der Produktionslogistik dargelegt.
4 Anwendung von Data Mining in einem verketteten Produktionsprozess: Der Praxisteil beschreibt die Anwendung des CRISP-DM-Modells zur Analyse von Prozessdaten einer CNC-Drehmaschine, um Faktoren für Terminabweichungen zu identifizieren.
5 Schlussbetrachtung: Das Fazit fasst die Ergebnisse zusammen und bewertet die Anwendbarkeit sowie die Hemmnisse von Data Mining in produzierenden Unternehmen.
Data Mining, Produktion, Logistik, Business Intelligence, CRISP-DM, Entscheidungsbaum, Clusteranalyse, Neuronale Netze, Assoziationsanalyse, Termintreue, Prozessdaten, Datenqualität, Knowledge Discovery in Databases, Wissensgenerierung, Fertigungssteuerung
Die Arbeit beschäftigt sich mit der Identifikation und Analyse von Anwendungsfeldern für Data Mining in der industriellen Produktion und Logistik zur Verbesserung von Entscheidungsprozessen.
Die zentralen Themen sind die mathematisch-statistischen Methoden der Datenanalyse und deren gezielte Anwendung auf logistische Zielgrößen wie Durchlaufzeiten und Termintreue.
Ziel ist es, den Nutzen von Data Mining in produzierenden Unternehmen aufzuzeigen und die praktische Anwendbarkeit anhand eines spezifischen Prozessdatensatzes zu demonstrieren.
Es wird das standardisierte Vorgehensmodell CRISP-DM verwendet, ergänzt durch diverse Data-Mining-Algorithmen wie Entscheidungsbäume und Clusteranalysen.
Im Hauptteil werden zunächst theoretische Grundlagen und Werkzeuge des Data Mining erörtert, gefolgt von einer Analyse der Produktions- und Logistikanforderungen und einer praktischen Fallstudie an einer CNC-Drehmaschine.
Die Arbeit wird primär durch Begriffe wie Data Mining, Produktion, Logistik, Termintreue und Prozessoptimierung charakterisiert.
Ohne qualitativ hochwertige und konsistente Daten können keine validen Muster oder Zusammenhänge erkannt werden; schlechte Datenqualität führt unweigerlich zu fehlerhaften Analyseergebnissen („Garbage in, garbage out“).
Der Entscheidungsbaum wird eingesetzt, um Aufträge basierend auf Prozessfaktoren in die Klassen "pünktlich" und "verzögert" zu klassifizieren, um so die Vorhersehbarkeit von Terminabweichungen zu verbessern.
Laut den Umfrageergebnissen der Arbeit sind mangelndes Fachwissen und die Unkenntnis über den tatsächlichen Zusatznutzen sowie die hohen Implementierungskosten die primären Hürden.
Nein, die Arbeit stellt fest, dass die Durchführung nicht generalisierbar ist, da jeder Prozess spezifische Besonderheiten aufweist, die eine individuelle Anpassung der Methoden und Parameter erfordern.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

