Die Geschichte vom Suchen und Finden in einer digitalen Welt: Ein Überblick und Vergleich von Konzepten zur Suche in und Informationsaufbereitung von strukturierten und unstrukturierten Datenbeständen

Front Cover
GRIN Verlag, Sep 30, 2011 - Computers - 53 pages
Bachelorarbeit aus dem Jahr 2010 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1.3, Technische Universität Dresden, Sprache: Deutsch, Abstract: Das rasante Wachstum des Internets hält kontinuierlich an und verknüpft eine unvorstellbar große Menge an Daten. Schon lange ist es auf eine Größe angewachsen, bei der eine sinnvolle Nutzung ohne automatisierte Hilfsmittel nicht mehr möglich ist. Zwar ist aufgrund der dezentralen Struktur des Internets eine genaue Berechnung des existenten Datenumfangs kaum möglich, erhobene Schätzungen versuchen aber einen Eindruck davon zu vermitteln. So besagt eine Studie der IDC, dass sich die digitalen Informationen bereits 2006 auf 161 Exabyte belief. Vorhersagen über die weitere Entwicklung gehen davon aus, dass diese Masse sich bis 2010 von 161 auf 988 Exabytes mehr als versechsfacht hat. Außerdem ergab die Studie, dass ca. 95% der Daten im Internet in unstrukturierter Form vorliegen. Diese nutzbringend zu verarbeiten, stellt eine große Herausforderung dar (Gantz, 2007). Eine effektive Suche nach relevanten Informationen in dieser digitalen Welt bildet den Grundstein der Informationsgewinnung. Kurz nach der Erfindung des World Wide Webs galt in den Jahren 1991 bis 1994 das “Browsen” als die dominierende Fortbewegungsmethode in diesen Netz. Parallel dazu entwickelten sich die ersten Webcrawler, welche die Dokumente des Internets automatisch durchsuchen und in Datenbanken indexierten. Die automatische Volltextsuche wurde möglich. Mit dieser neuen Option wandelte sich das Suchverhalten der Nutzer. Anstatt zu erraten, welche Listeneinträge am passendsten sind, konnten nun Suchbegriffe eingegeben und die Relevanz einzelner Treffer einer Ergebnisliste überprüft werden. Die Geschwindigkeit des Suchens wurde durch dieses neue Konzept erheblich erhöht, nicht aber die Geschwindigkeit des Findens. Denn auch die Anzahl der potentiell relevanten Ergebnisse stieg deutlich an (Buzinkay, 2006, S. 177). So durchsuchen Webcrawler stetig das Netz nach relevanten Informationen. Doch bleibt ihnen der größte Teil des World Wide Webs verborgen und nur ein Teil der tatsächlich vorhandenen Dokumente kann gefunden werden. Darüber hinaus liefert eine konkrete Suchabfrage eine so unfassbar große Menge an Treffern, dass die Wahrscheinlichkeit eines Fundes beim ersten Ergebnis der Wahrscheinlichkeit eines Lottogewinns nahe kommt. Durch Mehrdeutigkeiten im Text, die Komplexität und die schiere Masse des WWW stoßen traditionelle Suchmaschinen schnell an ihre Grenzen (Sack, 2010, S. 14).
 

Contents

I
i
II
iv
III
7
IV
15
V
22
VI
33

Other editions - View all

Common terms and phrases

Bibliographic information