Bekanntermaßen fängt jeder einmal klein an und es muss nicht immer gleich der ganz große Ansatz sein. Vielmehr ist es sogar sehr sinnvoll, sich nicht mit einem kostenintensiven „Full-Scale SEO“ den finanziellen Spielraum einzuengen und statt dessen das von Google gewünschte „natürliche“
Wie sie erfolgreiches SEO auch mit geringem finanziellen Spielraum „On-Page“ aussehen kann, damit beschäftigen wir uns im folgenden und behandeln in diesem Artikel einige Ansätze, mit denen sie ihr Projekt optimal auf eine weitere Optimierung vorbereiten können.
Dabei gilt es die Faktoren Effektivität und Effizienz zur absoluten Maßgabe zu machen, die Verhältnismäßigkeit aus Aufwand und Resultat sind in der Phase als Start-Up wichtig, um die Ressourcen optimal zu nutzen.
Bildlich gesagt: Greifen sie zuerst nach den niedrig hängenden Früchten an einem Obstbaum, bevor sie dazu übergehen, schwieriger zu erreichende ernten zu wollen. Sie versprechen sichere Erfolge bei der Verbesserung ihres Ranking mit moderatem Aufwand.
Die Grundlage für ihre SEO-Maßnahmen
Um die häufigsten Fehler der On-Page Optimierung gleich im Vorfeld auszuschalten, wenden wir uns der Vorbereitung ihrer Webseite als technischer Plattform zu. Hier gibt es eine kleine Liste von Bedingungen, die sie bereits im Vorfeld erledigen können, um eine allgemeine Bereitschaft ihrer Webseite für Suchmaschinenoptimierung herzustellen:
– Anstandslos konfigurierte Google Sitemap
Eine Sitemap ist ein Dokument im sogenannten XML-Format, die als kleines technisches Helferlein auf ihrem Webserver hinterlegt wird, um dem Web-Crawler der Suchmaschine die von ihnen zur Indexierung freigegebenen Einzelseiten ihres Webseiten-Projekts auf unmissverständliche Weise anweist.
Das hat für sie den Vorteil, dass sie zu 100% sicherstellen können, das der Crawler beim crawl ihrer Webseite keine Inhalte übergeht und so für ein optimales Ergebnis bei der Auswertung ihres Content und der Webseite als Projekt sorgt.
Dies zahlt sich insbesondere für bisher unbekannte Projekte aus, die bei einer geringen Anzahl an eingehender Links (Teil der sogenannten „Linkstruktur“) der Spider sich mit dem gemappten Inhalten als ganzes und nicht nur mit den durch die Relinks als „Interessant“ vermerkten Seiten und dessen Content beschäftigt. Ebenso können so Webseiten, die starke Javascript und AJAX-Elemente verwenden eine höhere Dichte der Erfassung erreichen.Zuletzt generieren sich positive Effekte bei dynamischem Content, also Content der sich über die Zeit verändert und nicht final oder statisch angelegt ist, da hier die Recrawl-Rate bei Folgebesuchen der Suchmaschine stabil bleibt.
Tipp: Weitere Informationen erhalten sie auf der Hilfeseite von Google selbst: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=156184
– Korrekt konfigurierte Robots.txt
Die „Robots.txt“ gehört zu den ältesten Methoden, die Erfassung der eigenen Website durch externe Suchmaschinencrawler zu steuern und darf als Vorläufer des Google Sitemap-Standard betrachtet werden. Wenngleich betagt, gilt die Syntax dieses Protokolls, das unter dem sogenannten „Robots Exclusion Standard“ definiert und zusammengefasst ist bis heute als Quasi-Standard und wurde 1994 von einem unabhängigen Konsortium definiert. Er setzt auf die Kooperation mit dem Webcrawler, stellt jedoch keine absolute technische Barriere dar, sprich ein „unfreundlicher“ Crawler, im Gegensatz zum kooperierenden „freundlichen“ Pendant, kann ihre Vorgaben übergehen.
Tipp: Einen guten Anhalt über die Funktionsweise der Robots.txt finden sie in der deutschen Wikipedia: http://de.wikipedia.org/wiki/Robots_Exclusion_Standard
Weitere Infos liefert auch hier das Antworten-Portal der Google Webmaster Tools: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=156449
– Korrekt definierte kanonische URLs
Ein kanonischer „Uniform Resource Locator“ (URL) zeichnet sich nicht etwa durch ein Gesangstalent im Kanon aus, vielmehr läuft diese Form der Klarifizierung von URLs unter dem Motto „Viele Wege führen nach Rom“. Mit einer Kanonisierung definieren sie also quasi die „Hauptstraße“ einer Adresse, welche auf einen Inhalt auf ihrer Seite verlinkt, ungeachtet, in welcher Form ihr Content Management System oder Teilmodule desselben ihn zunächst aufbereiten.
Das bedeutet, das sie durch eine kanonische URL festlegen, welche Schreibweise einer URL von der Suchmaschine als die von ihnen zur Erfassung erwünscht erklärt ist. Das kann insofern von Vorteil sein, dass sie etwa durch ein Suchformular eine anderslautende URL zum Zugriff auf einen Inhalt erhalten, als er etwa durch das reguläre Navigationssystem ihrer Webseite definiert ist.
Hier droht eine Gefahr: Da Google höchsten Wert auf sogenannten „unique content“, also einzigartigen Seiteninhalt legt, könnte dies unter Umständen zu einer Abwertung im Ranking und der Platzierung der Seite durch die vermeintliche Erkennung von „Duplicate Content“ führen. Dies ist etwas, dass es unter jedem Umstand zu vermeiden gilt, da es zudem ebenso zu doppelten, konkurrierenden Ergebnissen in den Google Suchergebnisseiten, da zwei Wege zu einem Inhalt kommen kann.
Tipp: Definieren sie eine gültige Ziel-URL und diese wird automatisch vom Webcrawler für die Zielseite erkannt und zugeordnet. Hier lohnt es sich, tiefer gehende Informationen einzuholen, etwa in den Antwortseiten der Google Webmaster Tools, die sich auch hier abermals sehr hilfreich zeigen: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=139066
Lesen Sie heute in einer Woche den 2ten Teil dieser Artikelserie