Diplomarbeit, 2007
74 Seiten, Note: 1,0
Diese Diplomarbeit befasst sich mit Parallel Computing, seinen Systemarchitekturen und Programmiermethoden. Ziel ist es, einen umfassenden Überblick über die Konzepte und Techniken des Parallel Computing zu geben. Die Arbeit analysiert verschiedene Ansätze zur parallelen Datenverarbeitung und untersucht die Vor- und Nachteile verschiedener Architekturmodelle.
1. Einleitung: Dieses Kapitel führt in das Thema Parallel Computing ein, beschreibt die Motivation für die Arbeit und skizziert die Problemstellung. Es beleuchtet die historische Entwicklung und die Ziele des Parallel Computing als Reaktion auf die Grenzen klassischer sequenzieller Rechenmodelle. Die Einleitung legt den Grundstein für die anschließende detaillierte Auseinandersetzung mit den verschiedenen Aspekten des Parallel Computing.
2. Klassifizierung: Dieses Kapitel bietet eine systematische Klassifizierung von Parallel-Computing-Systemen. Es erläutert die Flynnsche Klassifikation (SISD, MISD, SIMD, MIMD) und geht detailliert auf die verschiedenen Kategorien ein, um die verschiedenen Ansätze zur parallelen Datenverarbeitung zu differenzieren. Ein weiterer Schwerpunkt liegt auf der Speicherverwaltung (Shared Memory, Distributed Memory, Hybrid Distributed-Shared Memory) und deren Auswirkungen auf die Architektur und die Programmierung paralleler Systeme. Die Kapitel zeigt die Komplexität der Klassifizierung und legt die Grundlage für das Verständnis der unterschiedlichen Architekturen.
3. Cluster und Grids: Dieses Kapitel konzentriert sich auf zwei wichtige Architekturen im Parallel Computing: Cluster und Grids. Es beschreibt die Architektur und die internen Strukturen von Clustern, ihre Kategorisierung nach Anwendungszweck und die verwendete Clustersoftware. Der zweite Teil des Kapitels behandelt Grids, ihre Architektur, Arbeitsweise und Kategorisierung. Die detaillierte Beschreibung dieser Architekturen verdeutlicht ihre jeweiligen Stärken und Schwächen sowie ihre Eignung für unterschiedliche Anwendungsszenarien.
Parallel Computing, Systemarchitekturen, Programmiermethoden, Cluster, Grids, Flynnsche Klassifikation, Shared Memory, Distributed Memory, MPI, Pthreads, parallele Programmierung, Hochleistungsrechnen.
Die Diplomarbeit bietet einen umfassenden Überblick über Parallel Computing, einschließlich Systemarchitekturen und Programmiermethoden. Sie analysiert verschiedene Ansätze zur parallelen Datenverarbeitung und untersucht die Vor- und Nachteile verschiedener Architekturmodelle. Die Arbeit umfasst eine Einleitung, eine Klassifizierung von Parallel-Computing-Systemen, eine detaillierte Betrachtung von Clustern und Grids, sowie eine Zusammenfassung der behandelten Kapitel und Schlüsselbegriffe.
Die Arbeit deckt folgende Schwerpunktthemen ab: Klassifizierung von Parallel-Computing-Systemen (inkl. Flynnsche Klassifikation: SISD, MISD, SIMD, MIMD), Architekturen von Clustern und Grids (inkl. Shared Memory, Distributed Memory, Hybrid Distributed-Shared Memory), Methoden der parallelen Programmierung (MPI und Pthreads), Anwendungsbeispiele für Parallel Computing und die theoretischen Grundlagen des Parallel Computing.
Die Arbeit gliedert sich in drei Hauptkapitel: Kapitel 1 (Einleitung) führt in das Thema ein und erläutert die Motivation und Problemstellung. Kapitel 2 (Klassifizierung) bietet eine systematische Klassifizierung von Parallel-Computing-Systemen, einschließlich der Flynnschen Klassifikation und verschiedener Speicherverwaltungsmethoden. Kapitel 3 (Cluster und Grids) konzentriert sich auf die Architektur und Funktionsweise von Clustern und Grids. Zusätzlich enthält die Arbeit ein Inhaltsverzeichnis, eine Zusammenfassung der Kapitel und eine Liste der Schlüsselwörter.
Die Diplomarbeit verwendet die Flynnsche Klassifikation, um Parallel-Computing-Systeme zu kategorisieren. Dies beinhaltet SISD (Single Instruction, Single Data), MISD (Multiple Instruction, Single Data), SIMD (Single Instruction, Multiple Data) und MIMD (Multiple Instruction, Multiple Data). Zusätzlich werden verschiedene Speicherverwaltungsmodelle wie Shared Memory, Distributed Memory und Hybrid Distributed-Shared Memory diskutiert.
Die Arbeit beschreibt Cluster und Grids als wichtige Architekturen im Parallel Computing. Für Cluster werden Architektur, interne Strukturen, Kategorisierung nach Anwendungszweck und verwendete Clustersoftware behandelt. Für Grids werden Architektur, Arbeitsweise und Kategorisierung erläutert. Die Beschreibung verdeutlicht die Stärken und Schwächen beider Architekturen und ihre Eignung für verschiedene Anwendungsszenarien.
Die Diplomarbeit erwähnt MPI (Message Passing Interface) und Pthreads (POSIX Threads) als wichtige Methoden der parallelen Programmierung.
Schlüsselwörter sind: Parallel Computing, Systemarchitekturen, Programmiermethoden, Cluster, Grids, Flynnsche Klassifikation, Shared Memory, Distributed Memory, MPI, Pthreads, parallele Programmierung, Hochleistungsrechnen.
Diese Zusammenfassung dient als schneller Überblick über den Inhalt der Diplomarbeit und soll die wichtigsten Aspekte und Themen hervorheben. Sie ist für akademische Zwecke gedacht und soll das Verständnis des Inhalts erleichtern.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare