Formelarbeit oder Bauchgefühl?
Findet der Streit zweier Strategien für das Einstreuen von Schlagworten nach Formeln durch das Google-Update „Penguin“ ein Ende? Was sind WDF und IDF? Lohnt sich die Rechenarbeit für den Erfolg eigener SEO-Maßnahmen?
Die Gegenseite erklärt: „Das Bauchgefühl muss stimmen – Content ist König, der Besucher das Wahlvolk!“
Die Kritiker der Anwendung dieser Formel führen an, dass die Formel bereits 1972 aufgestellt wurde und ursprünglich auf analoge Indexierung von Dokumenten angewandt wurde. Sie sei schlichtweg ein Anachronismus, welcher auf die moderne, vielfältige Bewertungsmethodik der Google Webcrawler nicht mehr anzuwenden ist. Dabei mäkelt man, das die“ Keyword Density“ nach der Formel „WDF*p*IDF“ an sich viel zu unpräzise sei, da sie generalisierte Werte erzeuge, die schon kleinste Veränderungen in der Methode der Suchmaschine, zu indexieren, nicht mehr auffangen in der Lage sei.
Dass diese Kritik durchaus sehr eloquent und mit Argumenten unterlegt geführt werden kann, also nicht nur auf einen Disput der Glaubensfragen hinaus läuft, beweist der Blogger Karl Kratz auf seinem Weblog, wo er in einem ausführlichen Artikel dargelegt, das die „Keyword Density“ zumindest ein Anachronismus, wenn nicht sogar technisch unwirksam ist. Kratz nimmt sich hierbei die Zeit, mit recht einfachen Worten die Inkonsistenzen dieses Modells zu erklären und woran es letztlich – seiner Ansicht nach – scheitern müsse, weshalb es sich durchaus lohnt, sich diesen Artikel zu Gemüte zu führen. Siehe -> (http://www.karlkratz.de/onlinemarketing-blog/seo-keyword-density/)
Gerade kreativ arbeitende Agents lehnen die Nutzung von „seelenlosen“ Formeln bei der „On-Page SEO“ weitgehend ab
In der, aus unterschiedlichen Plattformen stattfindenden, Diskussion bringen sie vor, dass für die moderne Gestaltung von Webseiten-Content die Erhaltung einer organischen Struktur mit tatsächlichem Nutzwert für einen Seitenbesucher weit höher im Vordergrund stehen muss, um die Rankingerfolge aus den Auswertungen der Seite durch Google, etwa bei der Verweilzeit auf dem Inhalt, dem „Hovern“ der Maus über Anzeigen und Anzeigentexten und weiteren Faktoren des aufgezeichneten Nutzerverhaltens, für sich gewinnen zu können. Die Ideale Linie, die sich aus dem Modell von „WDF*p*IDF“ ergäbe, sei nur ein Anhalt, der sich bei einer natürlichen Gestaltung von Textinhalten von ganz alleine Ergebe. Im Endeffekt wäre Seitens des Webcrawler nur ausschlaggebend, dass der Content von diesem nicht als Spam eingestuft würde.
Für und wider – Der Pinguin jedoch schafft in Zukunft neue Realitäten, auch für die SEO-Branche
Mit diesem Standpunkt hat die Gruppe der Kritiker natürlich ein starkes Argument zur Hand. Das im Besonderen seit dem Roll-out der Algorithmus-Iteration „Penguin“ im Frühjahr 2012, mit dem eine Vielzahl an Änderungen am Verfahren des Ranking von Webseiten von Google geändert wurde. Diese Stellt die Weichen für die Zukunft des Suchmaschinen-Rankings auf eine neue Strecke, die mit dem Penguin-Update getestet wird und deren Auswirkung in der Praxis spätestens jetzt solche statischen Methoden ins „off“ stellen könnte.
Denn der Fokus der Suchmaschine, so erklären es Google-Größen wie Matt Cutts selbst, wird in Zukunft nicht mehr auf der Erfassung von statischen und technischen Faktoren liegen, welche durch die Entwicklung des Internets und der Verfügbarkeit moderner CMS (Content Management Systeme) die in der ranking-relevanten Spitzengruppe ohnehin nur noch marginale Unterschiede ausbilden und den Wettbewerb auf Nuancen-Ebene technischer Feinheiten, fernab vom Seitenbesucher, reduziert hat. Diese Form der SEO war für die Beteiligten und nutzniesenden Agenturen ein steter Faktor mir konstanten Ergebnissen, hatte jedoch den Nachteil ausgeprägt, dass sich die Gestaltung von Content zunehmend vom Nutzer entfernt hatte und die Qualität der Suchergebnisse in den Google SERPs längst nicht mehr mit dem Anspruch der Google Inc. an ihre Dienstleistung deckte. Und letztlich somit den Giganten des Internets zum Handeln bewegt hat.
Mathematische Formeln treten gegen dynamisches Schwarmverhalten an – „Social Google“ kommt!
Die Auswertung des Nutzerverhaltens tritt in Zukunft vermehrt in den Vordergrund. Aus den Datensätzen er Google-eigenen Funktionalitäten und Angebote, bei Google AdWords beginnend bis zum sozialen Netzwerk Google+ und der eingebetteten Portale, wie etwa Google Local+, Google Shopping etc. bilden vermutlich spätestens in der kommenden Iteration des Suchmaschinen-Algorithmus die Hauptrolle, während technische Finessen weniger relevant sein werden. Damit Hebeln die Entwickler der Suchmaschine effektiv die Möglichkeit aus, das Ranking einer Webseite durch statische Formeln und Funktionen berechnen zu können und legen den Schwerpunkt in die soziale Komponente, den Visitor, welcher mit seinem Verhalten – also der Verweildauer, seinem Klickverhalten und nicht zuletzt der Möglichkeit für Empfehlungen durch das Google-eigene „+1“ oder dem Teilen in den persönlichen Google+ – Kreisen – der schwerpunktmäßige Anker
Eine Frage des Glaubens? Anachronismus oder mathematische Konstante? Wir ziehen unser Fazit:
Letztlich jedoch bleibt es tatsächlich eine Glaubensfrage, in wie fern sich die Formel „WDF*p*IDF“ und das Konzept der „Keyword Density“ tatsächlich bewähren werden oder ob es jemals wirksam für die Nutzung als Element in der Suchmaschinenoptimierung gewesen ist. Die Zukunft der Google Suche liegt, das ist nach mehr als einem halben Jahr „Penguin-Update“ unbestreitbar, jedoch im Schwarmverhalten der Nutzer und der Vernetzung der sozialen Komponenten des „System Google“, in dem nur noch wenig Platz für mathematische Rechenspiele bleiben wird.
Was sind Ihre Erfahrungen? Wie arbeiten Sie? Kommentare dazu ausdrücklich erwünscht 🙂