Ein Online Shop wird im Schnitt alle 1 bis 1,5 Jahre neu gelauncht. Auch wenn es also nicht sehr häufig zu einem Relaunch kommt, ist das Thema SEO beim Shop-Relaunch von großer Bedeutung. Gerade bei einem Relaunch kommt es häufig zu Fehlern die aus SEO-technischer Sicht für eine langfristig schlechte Performance der Shop-Domain verantwortlich sein können. Welche Fehler treten beim Shop-Relaunch am häufigsten auf und wie vermeidet man Sie?
Keine Übernahme der alten URL Struktur und URL Namen
Häufig wird mit einem Relaunch auch eine neue URL-Struktur mit neuen Pfadnamen implementiert. So geschieht es sehr häufig, dass bei Google bekannte Pfade nicht mehr unter der „alten“ URL aufrufbar sind. Empfehlenswert ist es soweit wie möglich die alten Pfadnamen zu übernehmen. Wenn dies nicht möglich ist, sollte man den Fokus auf den folgenden Punkt legen.
Keine Weiterleitungen der alten URLs
Bei einem Relaunch ist es wichtig, per Weiterleitung(en) die Power der alten Seite(n) auf die neue zu übertragen. Häufige Fehler sind entweder, dass die permanente Weiterleitung (301 im Quellcode) komplett vergessen wird oder, dass mit einer vorübergehenden Weiterleitung (302 im Quellcode) die Power nur auf Zeit mit umgezogen wird und danach verloren gehen kann. Im Optimal-Fall wird jede „alte“ URL per 301 auf die „neue“ URL weitergeleitet.
Die robots.txt wird vergessen bzw. nicht angepasst
Die robots.txt hindert Bots daran, ausgewählte Bereiche von Webseiten zu crawlen. Dies geschieht, wenn an Websites gearbeitet wird oder diese umstrukturiert werden. Es soll verhindert werden, dass Bereiche, an denen gearbeitet wird oder in denen sich Duplicate Content befindet, indiziert werden. Von daher sollte eine robots.txt für diese Bereiche unbedingt eingerichtet bzw. beim Relaunch auf die neue Seite bzw. Struktur angepasst werden.
Noindex-Tag nach dem Relaunch vergessen zu entfernen
Oftmals wird während der Entwicklungsphase einer neuen Website auf einem Test-Server ein Noindex-Tag im Quellcode gesetzt, damit die neuen Seiten noch nicht im Google Index auftauchen und ein Duplicate Content Problem mit der aktuellen Seite erzeugen. Dieser Tag sollte kurz vor dem Relaunch der neuen Seiten auf dem Live-Server unbedingt wieder entfernt werden, da sonst die Domain samt den Unterseiten nicht von Google indiziert wird und somit nicht ranken kann.
Interne Suchergebnisseiten nicht deklariert
Um zu vermeiden, dass der Googlebot an zwei Stellen auf der Domain den gleichen Content findet, nämlich einmal direkt auf dem Pfad und dann noch über die Ergebnis-Seiten der eigenen Suche, sollte man auch auf der umgezogenen Domain darauf achten, die internen Suchergebnis-Seiten mit dem „Noindex“ Tag im Quellcode auszustatten.
Interne Linkstruktur nicht mehr sauber
Wenn beispielsweise „harte“ Links im Quellcode vorhanden sind und man nur die Datenbanken anpasst, werden solche Verweise gerne vergessen und zeigen dann ins Leere. Daher sollte man stets darauf achten, wie die interne Verlinkung der eigenen Domain aufgebaut ist und an welchen Stellen es Probleme in Bezug auf die Verlinkung geben könnte.
Neue Technologien nicht hinreichend auf SEO Tauglichkeit geprüft
(Ajax, JavaScript Navigationen etc.)
Da der Googlebot eine Vielzahl der neueren Technologien wie Javascript nur bedingt auslesen kann, ist im Vorfeld eines Domain-Relaunches darauf zu achten, welche Technologien SEO-tauglich sind und welche nicht, und wie man durch das Zusammenspiel ein optimales Ergebnis erreichen kann.
Wie ist Ihre Meinung? Nutzen Sie unsere Kommentarfunktion und diskutieren Sie mit.