Bachelorarbeit, 2010
53 Seiten, Note: 1.3
Abbildungsverzeichnis
Tabellenverzeichnis
1 Hintergrund und Forschungsfragen der Arbeit
2 Grundlegende Begriffe
2.1 Suchen oder Finden
2.2 Struktur von Datenbeständen
2.3 Unterschiedliche Arten der Relevanz
2.4 Information Retrieval
3 Suchen
3.1 Suchmaschinenarten
3.1.1 Suche in lokalen Datenbanken
3.1.2 Volltextsuchmaschinen
3.1.3 Metasuchmaschinen
3.1.4 Verzeichnisse
3.1.5 Spezielle Suchdienste
3.2 Suchmechanismen und Funktionsweisen
3.2.1 Webcrawler
3.2.2 Indexierung
3.2.3 Rangierungsprinzipien
3.3 Probleme der Suche und Lösungsansätze
3.3.1 Schwachstellen
3.3.2 Lösungsansätze
4 Finden
4.1 Personalisierte Internetsuche
4.1.1 Nutzerprofile als Basis der Personalisierung
4.1.2 Personalisierung der Suchanfrage
4.1.3 Personalisierung des Suchalgorithmus
4.1.4 Personalisierte Präsentation der Suchergebnisse
4.2 Kontextorientierte Konzepte
4.2.1 Semantic Web
4.2.2 Nutzenspotentiale
4.2.3 Problemfelder
4.2.4 Bisherige Umsetzung neuer Suchkonzepte
5 Vergleich verschiedener Suchmaschinen
5.1 Beschreibung des Vorgehens
5.2 Auswahl der Testobjekte
5.3 Ergebnisse und Auswertung
6 Zusammenhang und Ausblick
Literatur
A Suchbegriff “Positip VRZ 659” V
B Auswahl der zu testenden Maschinen - Teil 1
C Auswahl der zu testenden Maschinen - Teil 2
D Gefundene Antworten zur ersten Testfrage
E Gefundene Antworten zur zweiten Testfrage
F Gefundene Antworten zur dritten Testfrage
Laut Studien wuchs das digitale Informationsvolumen von 161 Exabyte im Jahr 2006 auf geschätzte 988 Exabyte im Jahr 2010 an. Ein Großteil dieser Daten liegt in unstrukturierter Form vor.
Während die Geschwindigkeit des Suchens durch moderne Algorithmen erhöht wurde, stieg die Geschwindigkeit des Findens nicht im gleichen Maße, da die Menge potenziell relevanter Treffer massiv zugenommen hat.
Webcrawler sind automatisierte Hilfsmittel, die Dokumente im Internet durchsuchen und für Datenbanken indexieren. Sie ermöglichen die automatische Volltextsuche, erreichen aber nur einen Teil des gesamten Webs.
Kontextorientierte Konzepte wie das Semantic Web versuchen, Informationen nicht nur über Schlüsselwörter, sondern über ihre Bedeutung und den Zusammenhang (Kontext) auffindbar zu machen.
Die schiere Masse des World Wide Webs, die Komplexität von Daten und sprachliche Mehrdeutigkeiten führen dazu, dass die Relevanz der ersten Suchergebnisse oft gering ist.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

