
 Willi Müller-Basler 80686 München |
Häufig werde ich danach gefragt - nun ist es an der Zeit, einmal etwas an die Nutzer weiterzugeben, die eigene Webseiten betruen. Die Frage ist meist: Warum werde ich bei den Suchmaschinen nicht gefunden?
Ganz klar - es gibt hier keine Goldenen Regeln, aber man kann viele Fehler machen, die die Bots der Suchmaschinen bei der Indizierung nicht verzeihen. Sehen wir uns das einmal genauer an:
EINS: Verifiziere Deine Seiten
Egal ob du mit einem CMS arbeitest oder ein Hardcoder bist, achte darauf, das Dein HTML und Dein CSS Code möglichst fehlerfrei ist. Denn das bedeutet: Du machst den Bots keine zusätzliche Arbeit - und das belohnen diese. Hier ein Beispiel, wie es NICHT aussehen sollte:

ZWEI: Halte Standards ein!
Das bedeutet: Stelle eine robots.txt zur Verfügung, erzeuge eine Sitemap im XML Format, Lade ein Favourite Icon hoch. Kleine Sachen - mit großer Auswirkung wenn diese fehlen. Auch hier ein Beispiel, wie es NICHT aussehen sollte:

DREI: Achte auf das Ladevolumen Deiner Seiten
Das war vor 15 Jahren noch wirklich in den Köpfen - heute, mit hohen Datentransferraten nicht mehr so. Aber denkt doch bitte auch an die Leute, die 'abgehängt' mit mäßiger Geschwindigkeit Zugang zum Internet haben oder mit Ihrem Mobilgerät gedrosselt fahren oder gar ein kleines Datenvolumen zur Verfügung haben. So sollte das NICHT aussehen:

VIER: Wie war das - Butter bei die Fische? Auch wenn es heute üblich ist, alles oder auch nichts nur mit Bildern zu zeigen - man muss den Bots der Suchmaschinen auch etwas zum Indizieren geben. Das heisst gnadenlos: Es muss auch TEXT zum indizieren da sein - und er sollte auch einfach lesbar sein. Auch hier wieder ein schlechtes Beispiel:

FÜNF: Vermeide 'Duplicate Content'
Was ist das eigentlich - Duplicate Contents? Eigentlich ganz einfach, für eine Suchmaschine sind Seiten wie www.irgendwas.de und irgendwas.de zwei unterschiedliche Seiten, die zu indizieren sind. Wenn man dies nicht progressiv nutzt (und wirklich unterschiedliche Seiten baut), dann macht man den Bots wieder zusätzliche Arbeit und verbrät bei den Suchmaschinen Resourcen - denn es werden bei gleichem Inhalt zwei Indizes geführt. Auch hier ein schlechtes Beispiel:

OK- und wie ist dann der Unterschied im Ranking?
Die schlechten Beispiele sind alle von der Webseite efi-bayern.de, Stand 2.1.207. Damit man den Effekt sieht, nun die Gesamtergebnisse von efi-bayern gegen efi-wap (das die hier genannten Forderungen sehr gut erfüllt). Der Unterschied ist klar ersichtlich - und die Suchmaschinen benutzen die gleiche 'Messlatte'. Welche Webseite ist also erfolgreicher?

Welche Tools werden verwendet, was ist hilfreich?
Genutzt wurde Seitenreport, das Tool erlaubt nach der Registrierung 3 Analysen innerhalb 24 Stunden. Das ist schon ganz gut für den Anfang. W3C stellt zum Testen mehrere Links kostenlos zur Verfügung:
HTMLTeste auf HTML-Syntax CSS Teste auf CSS Syntax RSS Teste Feeds auf Syntax |