Optimierung Suchmaschinen

Der Begriff Optimierung wird hier in einer allgemeinen, nicht quantifizierten Form verwendet. Die messbare Realisierung des Ziels stellt ein wichtiges Kriterium für eine formale Optimierung dar. Das ist bei einer Optimierung der Webseiten kaum zu definieren. Insbesondere lassen sich keine unmittelbaren Beziehungen zwischen den Aktivitäten und den Wirkungen feststellen. Ein Beispiel hierfür: Gute Bildunterschriften können zu einer verbesserten Bedienbarkeit für die Besucher führen, was wiederum die Konversionsquote erhöht. Die Algorithmen der Suchmaschinen bewerten deshalb Bildunterschriften als besonders positiv und ordnen der Webseite eine höhere Relevanz zu. Aber ist das eine Optimierung für die Suchmaschinen? Es ist allenfalls eine Verbesserung des Qualitätsfaktors für die unbekannte Bewertung der Webseite. Eine konkrete Zuordnung der Aktion Bildunterschrift zu Listenplatz auf der Ergebnisliste gibt es nicht.

Die Optimierung für die Suchmaschinen kann mitunter als eine Verbesserung der Webseiten für die Besucher verstanden werden, deren Relevanz hoffentlich auch von den Suchmaschinen positiv bewertet wird.

Auch bei der Optimierung der Website für die Suchmaschinen möchte der Webmaster möglichst viele unbekannte Suchende im Web erreichen und als Besucher der Website gewinnen. Die Besucherquellen sind vielfältig, und jede Quelle verlangt nach einer eigenen Marketingstrategie. Nachfolgend werden die konkreten Aktionen besprochen, mit welchen die Potenziale in den Bereichen besser segmentiert und optimal genutzt werden.

Die Website wird in Suchmaschinen, Verzeichnissen, Portalen und anderen Plattformen kostenfrei gelistet, wenn sie dort eine entsprechende Relevanz für die Besucher dieser Präsenz hat. Kommt ein Besucher über einen solchen Link zur gelisteten Webseite, ist dieser Link selbstverständlich kostenfrei. Im etablierten Web-Business werden über Social-Marketing, Empfehlungs-Marketing und eigene Communitys ebenfalls kostenfreie Links generiert.

Die kostenpflichtigen Links stellen die Vergütung für fremde Dienstleister dar, die einen Informationsvorsprung verkaufen. Sie lassen sich die Vermittlung an die Interessenten aus der Zielgruppe bezahlen, die sie bereits segmentiert haben und die eine hohe Übereinstimmung mit den gewünschten Besuchern der Website des Anbieters versprechen.

Beispiele:

  • Die registrierten Mitglieder einer Scooter-Community sind für die Verkäufer von Tuning- oder Ersatzteilen interessant.
  • Der Betreiber einer Fußball-Community wird sich für die vermittelten Klicks an einen Ausrüster von Trikots bezahlen lassen.
  • Die Gebäudeversicherung hat die gleiche Zielgruppe wie ein Immobilienportal. Eine Reiseplattform verlinkt zu einer Autovermietung.

Alle diese Beispiele führen auf den Verbundeffekt. Darauf basierend bieten Plattformen wie Google, Facebook, LinkedIn oder Ebay die Möglichkeit an, über gesponserte Links zur Zielgruppe zu finden, die über das Profiling ihre Präferenzen offenbart hat. Ganz allgemein kann davon ausgegangen werden, dass es keine wirklich unbekannten Surfer im Web gibt, denn irgendein Betreiber einer Webpräsenz kennt deren persönliches Profil. Diese Informationen über die Zielgruppen werden über die gesponserten Links oder andere Vergütungsvarianten im Web angeboten und verkauft.

Der Webmaster einer Präsenz bringt die Marketinginformationen zu seiner Zielgruppe – er lässt sich finden. Dazu gestaltet er seine Webseiten entsprechend attraktiv und platziert sie prominent im Web. Die Webseiten müssen für die Zielgruppe relevant sein.[1] Dann werden sie einerseits von den Suchmaschinen und Verzeichnissen empfohlen und gut gelistet, andererseits erhalten die Anzeigen für die Website eine bessere Platzierung zu gleichen Kosten (zumindest bei den bezahlten Links von Google AdWords). Letztlich werden die Interessenten auf relevanten Seiten besser empfangen und zum Verbleib animiert.

Das Web ermöglicht eine Vielzahl von Realisierungen, mit denen der Kreativität hinsichtlich der Darstellung des Informationsangebotes freien Lauf gelassen werden kann. Der Meister zeigt sich hier einmal mehr in der Beschränkung auf die Optionen, die zum Ziel einer hohen Relevanz führen. Einige Experten stellen die damit zusammenhängende Aufgabe der Seitenoptimierung[2] einer Präsenz als ein mysteriöses Buch mit sieben Siegeln dar. Es werden Rezeptbücher herausgegeben, Hunderte von Foren versuchen die Algorithmen zu ergründen, nach denen die eigenen Seiten in den Suchmaschinen an die vorderen Plätze manövriert werden können. Angeblich gesicherte Empfehlungen führen zu einer guten Platzierung in den Suchmaschinen. Auszugsweise werden einige der Ratschläge zur Diskussion gestellt.[3]

Bei der Bewertung der Aktionen geht es immer darum, ob den Robots der Suchmaschinen eine Relevanz nur vorgegaukelt werden soll, um billige Klicks auf die Website zu locken, oder ob die wirklich interessierten Suchenden ideal segmentiert auf die Webpräsenz kommen.[4]

In der Praxis werden häufig Übersichten und Empfehlungen erstellt, die eine Verbesserung der Positionen in den Suchmaschinen zum Ziel haben. Sie sind oft verkürzt und pauschal, aber werden gern diskutiert, weil jeder Webmaster hinter das Geheimnis der guten Platzierungen kommen will.

Optimierungsempfehlungen

Tabelle Optimierungsempfehlungen

Negativliste:

Doorway-Pages sollen den Robots der Suchmaschinen den Eintritt zur Website weisen. Die ursprüngliche Überlegung war, eine statische HTML-Seite zu präsentieren, da die Suchmaschinen dynamische aus der Datenbank erzeugte Seiten nicht indexieren. Bei der nächsten Abfrage eines Suchenden könnte ein anderer Text auf der dynamischen Seite stehen. Dann wäre sie nicht mehr relevant für die Suchanfrage. Für die Optimierung wurden in der Folge allerdings statische Seiten als Potemkin’sche Dörfer aufgebaut, die nur auf die dynamischen Inhalte anderer Seiten verlinkt haben. Damit sollten mehr Besucher angelockt werden. 

Cloaking läuft in eine ähnliche Richtung. Wenn Bilder, Filme oder andere Dokumente ohne Text auf der Webseite mit Texten erläutert werden, wird diesen ein Mantel (cloak) umgehangen. Auf dem Mantel kann aber auch irreführender Text stehen, deshalb wollen die Suchmaschinen das generell unterbinden.

Keyword-Stuffing ist das übermäßige Vollstopfen eines Seitentextes mit Keywords, die eine hohe Relevanz für einen Suchbegriff erzeugen sollen. Hinsichtlich der Wörter, die auf der Webseite erscheinen, sollte derselbe Suchbegriff nicht mehr als 5 % des Textes ausmachen. An einem überladenen Text spürt der Leser deutlich, dass eine höhere Dichte diesen praktisch unleserlich macht. 

Hidden Content ist nur für die Robots lesbar, aber nicht für den Besucher. Er kann hinter Bildern stehen, unterhalb der lesbaren Webseite oder in der gleichen Farbe wie der Hintergrund geschrieben sein.

Link-Farmen sollen die Linkpopularität der Offsite-Optimierung erhöhen und wie Verzeichnisse aussehen, nehmen aber nur die Links zu den Webseiten auf. Häufig wird die Platzierung auf hochwertigen Seiten sogar bezahlt. Das unterläuft die Absicht der Suchmaschinen, die Links wie Empfehlungen oder Zitate der fremden Webmaster zu werten. Die Idee ist, dass ein Webmaster eine Webpräsenz und ihren Betreiber kennt und deshalb einen Link wie eine persönliche Empfehlung von seiner Website setzt. Link-Farmen sammeln aber ohne Unterschiede möglichst viele Hyperlinks.

Positivliste:

Der redaktionell gepflegte Verzeichniseintrag stellt das Gegenteil einer Link-Farm dar. Die eigene Website wird zur Prüfung eingereicht. Ein Redakteur schaut sich die Präsenz an. Im Anschluss entscheidet dieser, ob das Verzeichnis auf die Website verlinken will und in welche Kategorien des Verzeichnisses der Link aufgenommen werden soll. Das ist eine aufwändige Arbeit, sie hebt die Reputation der Präsenz jedoch deutlich an und beeinflusst die Platzierung in den Suchergebnissen positiv.

Das gleiche gilt für das Link-Baiting, in dessen Rahmen thematisch verwandte Seiten um eine Verlinkung zur eigenen Seite gebeten werden und sich direkt oder indirekt mit einer Empfehlung zum Linkgeber revanchiert wird.

Die Meta Tags sind kurze Beschreibungen der Webseite und Stichwörter, die im Header der Webseiten speziell für die Robots angelegt werden. Sie sollen die Klassifizierung der Seiten für die Software der Suchmaschinen erleichtern. Der Besucher bekommt die Einträge nicht zu sehen. 

Statische HTML-Seiten sind in ihrer Anwendung als Doorways nicht gern gesehen, im Prinzip aber die ersten Anwendungen im Rahmen des Internets und die einfachste Grundlage der Indexierung. Mit der Weiterentwicklung der Analysesoftware tritt der besondere Vorteil der statischen Seiten in den Hintergrund, denn inzwischen wurde das Repertoire der Content-Erkennung erheblich erweitert. Die Software liest sich heutzutage durch Frames, Sessions, Datenbanken, Weiterleitungen, Steuerdateien, PDF-Formate oder Java-Scripte.

Content wird in einem weiten Sinne als der eigene, originäre Inhalt der Webseiten verstanden. Guter Content für den Besucher wird mit einem hohen Platz auf der Qualitätsskala honoriert. Duplizierter Content wird in der Regel von den Suchmaschinen erkannt und führt zu einer Abwertung der Website.

Bei genauer Betrachtung der Optimierungsaktionen fallen einige nicht plausible Empfehlungen im Rezeptbuch auf: Hyperlinks sind gut, im Hinblick auf die Erscheinung auf Link-Farmen sind sie jedoch schlecht. Keywords sind wichtig für die Robots der Suchmaschine, aber Keyword-Stuffing wird von diesen als negativ bewertet. Statische Seiten sind prima, aber Doorway-Pages sind auch statische Seiten. Das Rezeptbuch wirft bei näherer Betrachtung mehr Fragen als Antworten auf.

Diese allgemeinen Richtlinien geben zwar erste Anhaltspunkte für die bessere Aufbereitung der Seiten, bezüglich der eigenen Webpräsenz gibt es dann doch wieder spezielle Ausnahmen und individuelle Besonderheiten. Eine Umsetzung aller Empfehlungen reduziert in manchen Fällen die Usability[5] und die Besucher verlassen die Website, bevor sie das intendierte Marketingziel erreicht haben. Die Konversionsquote sinkt, was unter Effizienzkriterien ein schlechtes Ergebnis bedeutet. Der Aufwand zur Akquisition der Zielgruppe wird damit zunichtegemacht.

Selbst wenn die Bewertung der Suchmaschinen zutreffend ergründet und umgesetzt wird, ist eine gute Platzierung dadurch nicht garantiert. Weitere Rahmenbedingungen bestimmen die Reihenfolge der Links auf der Ergebnisliste für den Suchenden.

  • Das Ergebnis wird auch von den Aktivitäten des Wettbewerbs bestimmt.
  • Die Suchmaschine ändert die Bewertungsalgorithmen.
  • Die Ansicht der Ergebnisse ist von den Profilen der Suchenden abhängig.

Insbesondere der letzte Punkt führt zu einer unsicheren Abschätzung der Potenziale und einem schwierigen Controlling der darauf abgestimmten Strategie der Onsite-Optimierung. Die Suchmaschinen, Verzeichnisse und Social-Communitys[6] sammeln immer mehr Daten über die Besucher, deren Verhalten und deren Präferenzen. Aus einer Vielzahl von Signalen stellen sie ein Profil zusammen und stimmen ihre angezeigten Ergebnisse und Informationen darauf ab. Damit ist die Platzierung der eigenen Website von den Profilen der Suchenden abhängig, die praktisch unbekannt sind. So lässt sich der Erfolg von Optimierungsstrategien für die Website kaum noch messen und steuern. Dieser Trend zur Entkopplung von Ursache und direkter Wirkung bei der Optimierung nimmt mit der wachsenden Datenmenge zu jedem Benutzer zu.

Für solche unsicheren und diffusen Entscheidungssituationen gibt es einen Ausweg: die Reduktion. Hier wird nach einem grundlegenden Prinzip hinter den einzelnen Regeln gesucht. In der Tat führt eine reduktionistische Analyse an den Wurzeln des neuen Mediums und den Erwartungen seiner Nutzer zu klaren, einleuchtenden Prinzipien. Die Ausgestaltungen einer Webpräsenz und die erfolgreichen Marketingaktionen lassen sich dann leicht aus dem Überangebot von Regeln, Aktionen und Empfehlungen selektieren. Ein wichtiges Prinzip ist die Relevanz der Website, die im nächsten Menüpunkt unter dem Terminus Onsite-Optimierung erläutert wird.[7]

Die Maßnahmen zur Verbesserung der Usability und der Bewertung durch die Suchmaschinen ergänzen sich gegenseitig, da beide die Akzeptanz der Webseiten und die Gebrauchstauglichkeit erhöhen wollen. Durch die Onsite-Aufbereitung für die Suchmaschinen werden mehr neue Besucher über kostenfreie Links gewonnen, und mit einer guten Usability sollen die Besucher nicht enttäuscht oder vertrieben werden. Diese beiden Richtungen der Aktivitäten werden in der Janus-Strategie[8] beschrieben. Bei der Aufbereitung der Inhalte für die Suchmaschinen wird generell zwischen den Verbesserungen auf der Website selbst, der sogenannten Onsite-Optimierung, und der Verbesserung der Relevanz, die andere Websites der eigenen Präsenz beimessen, der Offsite-Optimierung, unterschieden.

Die Offsite-Optimierung führt zur Steigerung der sogenannten Linkpopularität, die sowohl von der Anzahl als auch von der Bedeutung der verlinkenden Seiten beeinflusst wird. Das weite Thema des Aufbaus von Linknetzwerken hat nur einen indirekten und kaum messbaren Einfluss auf die Gewinnung von Besuchern. Die Verlinkung von anderen Webseiten hat in ihrem ursprünglichen Verständnis das Ziel, über diese Links neue Besucher auf die Zielseite zu bringen. Die Suchmaschinen bewerten das positiv, weil die Relevanz im Web verbessert wird. Eine daraus folgende gute Platzierung auf der Ergebnisliste erhöht die Sichtbarkeit für die Suchenden.

 

[1] Relevanzprinzip

[2] In der Internetsprache hat sich der Begriff Suchmaschinenoptimierung festgesetzt, was jedoch sinnentstellende Assoziationen weckt, denn tatsächlich wird nicht die Suchmaschine optimiert, sondern die eigenen Seiten werden suchmaschinentauglich aufgebaut.

[3] Das Thema wird ausführlich im Internet-Marketingkurs besprochen, den der Verfasser kostenlos im Web anbietet (www.shopmarketing.info). Hier sind alle bekannten und wirkungsvollen Empfehlungen für ein erfolgreiches Marketing mit dem neuen Medium Internet zusammengestellt.

[4] In den amerikanischen Veröffentlichungen werden die Aktionen als White-Hat oder Black-Hat klassifiziert.

[5] Die Usability bezeichnet die Gebrauchstauglichkeit der Website für den Besucher.

[6] Soziale Netzwerke, die Nutzerprofile systematisch aufbauen und austauschen (beispielsweise Facebook, LinkedIn, XING)

[7] Anglizismen sind in diesem Fall verwirrend, denn die Onsite-Optimierung kann im besten Fall zu einer Verbesserung der Website für den Besucher führen, wodurch wiederum die Relevanz erhöht wird. Die Erhöhung bezieht sich zunächst auf die Beurteilung durch den Besucher, ob und inwiefern die Algorithmen die Verbesserung in der gleichen Weise als eine Erhöhung der Relevanz bewerten, ist praktisch nicht überprüfbar.

[8] Janus-Strategie