INTERNET WORLD Logo Abo
SEO-Grundlagen: Die optimierte Suche - Teil 3

    SEO-Grundlagen: Die optimierte Suche - Teil 3

Suchmaschinenoptimierung wird in diesem Jahr Chefsache, glauben Branchenexperten. Die Grundlagen für Ihre wichtigsten Entscheidungen erfahren Sie in unserer Serie. Heute: Onpage-Optimierung.

Onpage-Optimierung wird gerade in der heutigen Zeit - in der häufig der Fokus auf Linkbuilding liegt - unterschätzt oder nur halbherzig umgesetzt. Doch nur, wenn die Site für Suchmaschinen-Spider einfach zugänglich ist, möglichst wenige Barrieren enthält und vernünftig strukturiert ist, wird sich der gewünschte Erfolg einstellen. Zusätzlich sollte man berücksichtigen, dass dieser Bereich noch am einfachsten vom Seitenbetreiber selbst beeinflusst werden kann. Insofern sollte man diese Hausaufgaben auch machen - und zwar gründlich.

In den Anfangsjahren der Suchmaschinen - und zum Teil auch heute noch - dachten Seitenbetreiber beim Thema Suchmaschinenoptimierung häufig an Keywords, die auf der Seite hinterlegt werden und dann für das gewünschte Resultat sorgen sollen. Vor etlichen Jahren mag das zum Teil auch recht gut funktioniert haben. Mittlerweile sind Suchmaschinen aber deutlich cleverer geworden, sodass es mit ein paar Keywords nicht mehr getan ist. Außer einigen Google-Mitarbeitern weiß niemand, welche Rankingfaktoren die Platzierung tatsächlich beeinflussen. Man kann hier nur testen, testen, testen und daraus Erkenntnisse ableiten - eines ist aber sicher: Das Ranking wird von einer Vielzahl an Faktoren beeinflusst.

Waren Webseiten zuzeiten von klassischem HTML noch mit Tabellen aufgebaut, die dann zum Teil recht abenteuerlich verschachtelt wurden, um bestimmte Ergebnisse realisieren zu können, sieht das Ganze inzwischen etwas anders aus. Wer noch mit Tabellen arbeitet, sollte langsam aber sicher umdenken. Mit CSS (Cascading Style Sheets) ist man flexibel in der Gestaltung, die Seite kann schlank und ohne Tabellen sowie Frames umgesetzt werden. Dies kann einen merklichen Vorteil gegenüber Suchmaschinen darstellen.

Robots.txt zeigt Suchmaschinen den Weg

Wichtig dabei ist lediglich, dass der Quellcode möglichst fehlerfrei umgesetzt wird, um Suchmaschinen-Spidern die Arbeit nicht unnötig zu erschweren. Eine Validierung des Quellcodes gemäß diverser Webstandards (W3C) ist – entgegen einigen Blog- und Forenbeiträgen – nicht zwingend erforderlich.

Eine einzelne Textzeile kann darüber entscheiden, ob eine Seite indiziert wird oder nicht. Robots.txt gibt Suchmaschinen vor, wie und wo es langgeht. Insofern sollten Sie hier besonders aufmerksam sein.

Bei Robots.txt handelt es sich um eine kleine Textdatei, die in Ihrem Root-Verzeichnis auf dem Webserver abgelegt wird oder abgelegt werden soll und die Anweisungen für Suchmaschinbots enthält, welche Seiten und/oder Verzeichnisse nicht vom Spider besucht und/oder indiziert werden sollen. Da diese Datei von Suchmaschinen als Erstes überprüft wird, sollten Sie auch darauf achten, eine derartige Datei zu installieren und mit den richtigen Angaben zu versehen.

Sie können das Vorhandensein dieser Datei sehr einfach prüfen, indem Sie einfach folgende URL eintippen: www.ihreseite.de/robots.txt

So sprechen Sie bestimmte Crawler an

Die Robots.txt-Datei ist nach einem bestimmten Schema aufgebaut. Zuerst gibt man an, für welchen Suchmaschinen-Spider die Anweisungen gelten, danach folgen die einzelnen Anweisungen. Ein Beispiel:

# robots.txt fuer http://www.ihreseite.de/

User-agent: BeispielRobot

Disallow: /temp/ # Die Dateien sind sehr kurzlebig

Disallow: /logfiles/ # Dateien sind nicht öffentlich

Mit "User-agent: BeispielRobot" bestimmt man, dass die Anweisungen nur für den Suchmaschinen-Spider „BeispielRobot" gelten. Mit den einzelnen „Disallow"-Einträgen bestimmt man Dateien und Verzeichnisse, die nicht indexiert werden sollen. # markiert einen Kommentar und wird von den Robots ignoriert.

Wenn man auf einen Rutsch alle Crawler ausschließen will, benutzt man den sogenannten Wildchar *, also:

# Alle Robots ausschließen

User-agent: *

Disallow: /temp/

Wenn man nicht gleich alle Crawler, sondern nur ein paar bestimmte meint, kann man diese so angeben:

User-agent: Name des Spiders

Um seine Site ganz von der Indexierung auszuschließen, kann man Folgendes benutzen:

# Ganze Site für alle Robots sperren

User-agent: *

Disallow: /

Wenn man den Slash (/) weglässt, wird alles für die Indexierung freigegeben. Insofern sollten Sie in jedem Fall prüfen, ob ein mögliches Rankingproblem nicht lediglich durch eine falsch konfigurierte Robots.txt-Datei entsteht.

Texten Sie Seitentitel kurz und prägnant

Derzeit geht man davon aus, dass das Title-Tag eines der wichtigsten Onpage-Ranking-Kriterien ist. Das Title-Tag wird im Head des Quelltextes Ihrer Webseite hinterlegt. Die Wichtigkeit eines vernünftigen Seitentitels ist zum einen darin begründet, dass dieser Text in der Titelzeile des Browsers auftaucht und damit an sehr prominenter Stelle erscheint. Zum anderen sollte man aber auch bedenken, dass das Title-Tag als Überschrift in den Suchergebnislisten besonders hervorgehoben wird.

Beim Seitentitel sollten Sie darauf achten, kurz, prägnant und ansprechend zu texten und für jede Seite einen individuellen und zum Inhalt passenden Titel zu vergeben. Bleiben Sie unter der Vorgabe von 65 Zeichen; danach schneiden die meisten Suchmaschinen den Titel rigoros ab. Da heißt es also unnötiges Blabla vermeiden und versuchen die wichtigsten Begriffe an den Anfang des Seitentitels zu stellen. Dabei lohnt es sich, die eigene Seite einmal aus Usersicht zu betrachten - und der sucht nicht nach Unternehmen, sondern nach Problemlösungen. Der Firmenname ist da in den meisten Fällen weniger interessant. „Individuelle Exklusivmöbel aus München" hört sich deshalb hilfreicher an und wird tendenziell auch häufiger geklickt werden als „Schreinerei Müller - München".

Das sogenannte Description-Tag nimmt eine besondere Stellung im Rahmen der Onpage-Optimierung ein. Das Tag wird im Quellcode wie folgt hinterlegt:

Man kann davon ausgehen, dass dieses Tag kaum oder so gut wie keinen direkten Einfluss auf das Ranking hat, wohl aber auf die Klickrate. Da die Klickrate jedoch durchaus Einfluss auf die Platzierung einer Webseite hat, sollte man die Wichtigkeit der Description nicht unterschätzen. Die Description wird meist für das Text-Snippet unter dem Seitentitel in der Suchergebnisliste verwendet.

Wie beim Seitentitel sollte man auch bei der Description auf eine ansprechende und knackige Formulierung achten, für die man bei Google bis zu 153 Zeichen Platz hat. Wichtig ist auch, dass die Description für jede Seite individuell und passend zum jeweiligen Content erstellt wird.Wird keine spezifische Description verwendet, zeigt Google selbst gewählte Inhalte der Seite als Textschnipsel an. Daher wäre es ungeschickt, sich diese Art der Beeinflussung von Suchergebnislisten nehmen zu lassen.

Morgen veröffentlichen wir online den nächsten Teil zu den Themen Alt-Tags und Domainnamen.

Die Serie wird am 16. Februar 2009 in der Printausgabe der INTERNET WORLD Business fortgesetzt: Probeabo kostenlos bestellen.

Sie haben Anfang unserer Serie verpasst? Hier geht's zum ersten und zweiten Teil der SEO-Grundlagen.

Das könnte Sie auch interessieren