Wer das Internet durchsucht, der googelt. Die Suchmaschine ist mittlerweile zum Synonym für Internet-Recherche geworden. Wenn eine Seite nicht in einer Suchmaschine verzeichnet ist, dann existiert sie für die meisten Surfer nicht.
Heute werden die Suchmaschinen zunehmend zu Torwächtern des Internet „Denn sie sammeln so, dass alle verfügbaren Informationen mit nur einem System durchsucht werden können.“
Dabei erscheint es bei näherem hin schauen sogar logisch, dass die Suchmaschinen mit vielen Inhalten überfordert sind. Die so genannten „Spider“ oder „Robots“, die für die Suchmaschinen das Netz durchkämmen, sind nämlich ziemlich simple Programme.
Ihr größtes Manko: Ohne Text geht gar nichts. Bilder, Musikdateien, Programme, Seiten mit Flash-Animationen – all das bleibt für googel und co unsichtbar. Auch können sie keine Formulare ausfüllen, um zum Beispiel Telefon-, Bibliotheks- und sonstige Verzeichnisse zu durchsuchen. Und passwortgeschützte Seiten sind ohnehin außerhalb ihrer Reichweite.
Die Unfähigkeit der Robots geht so weit, dass sie noch nicht mal selbständig Adressen eingeben können. Sie können nur dann auf eine neue Seite gelangen, wenn sie auf einer bereits bekannten Seite verlinkt ist.
Wer also eine neue Website bastelt, bleibt so lange unbekannt, bis eine bereits registrierte Seite auf das eigene Angebot verlinkt – oder bis er seine Seite eigenhändig bei einem Suchdienst anmeldet. Und auch dann müssen die Suchmaschinen diesem Link erst folgen, was je nach Bekanntheitsgrad der verlinkenden Seite schon mal mehrere Wochen dauern kann.
[BLINK]Google macht blind?[/BLINK]
Wir durchsuchen das Internet mit Suchmaschinen und sonst nichts. Das ist, als würde man vom Bootsrand aus nach Tiefseefischen Ausschau halten.