Such­ma­schi­ne

Such­ma­schi­nen sind gigan­ti­sche Daten­ban­ken. Die­se Daten von Web­seiten im World Wide Web wer­den erfasst und auto­ma­tisch ana­ly­siert. Die Erfas­sung erfolgt durch soge­nann­te Webcrawler.

Dann erfolgt eine Aus­wer­tung der Web­seiten im Hin­blick auf: Inhalt und Rele­vanz für bestimm­te Such­be­grif­fe. Aus die­sem Ran­king ergibt sich die Rei­hen­fol­ge der Such­ergeb­nis­se auf der SERP (Search Engi­ne Result Page).

Der Algo­rith­mus für die­ses Ran­king ist nicht bekannt und wird von den Such­ma­schi­nen­be­trei­bern des Öfte­ren geän­dert. Dies ist u. a. eine Maß­nah­me um Mani­pu­la­tio­nen an den Such­ergeb­nis­sen vorzubeugen.

Die Web­craw­ler der Such­ma­schi­nen kön­nen mit Hil­fe des Meta-Tags „robots“, in den Meta-Daten, bedingt gesteu­ert wer­den. Alle Anga­ben an die­ser Stel­le sind jedoch nur Richt­in­for­ma­tio­nen und die Such­ma­schi­nen behal­ten sich die Indi­zie­rung der Web­seite vor.

Ein sau­be­rer Quell­text (vali­der HTML Code) erleich­tert den Such­ma­schi­nen die Inde­xie­rung der Web­seite. Hier ist die Tren­nung von Lay­out und Inhalt eine wich­ti­ge Vor­aus­set­zung. Dies wird durch den Ein­satz von Cas­ca­ding Style Sheets (CSS) erreicht.

Mit einer opti­mier­ten Web­seite steigt oft die Mög­lich­keit in Such­ma­schi­nen unter den rele­van­ten Such­be­grif­fen gefun­den zu werden.