Beginnen wir mit der guten Nachricht: Es gibt zwar Todsünden bei der Conversion-Optimierung, aber wer sie begeht, wird nicht vom Blitz getroffen. Glück gehabt! Das war es dann allerdings schon mit den guten Nachrichten.

Die schlechte Nachricht: Wer Todsünden bei der Conversion-Optimierung begeht, lässt seine Conversion-Rate auf geringem Niveau zur Salzsäule erstarren – oder sorgt sogar dafür, dass sie immer geringer wird. Die Tore des Marketer-Paradieses, in dem sich zahlreiche überzeugte und zufriedene Kunden tummeln, bleiben verschlossen.

Nennen wir die Sünden beim Namen

Es wird daher höchste Zeit, sich in einer mehrteiligen Serie einmal mit den sieben Todsünden der Conversion-Optimierung zu beschäftigen. Nennen wir sie dafür als erstes beim Namen, damit wir wissen, womit wir es zu tun haben. Die sieben Todsünden der Conversion-Optimierung heißen „Faulheit“, „Ungeduld“, „Feigheit“, „Geiz“, „Neid“, „Hochmut“ und „Esoterik“. (PS: Eingefleischte Esoteriker mögen mir den Namen der letzten Todsünde vergeben, aber Esoterik und Conversion-Rate passen definitiv nicht zusammen.)

Sünde Nr.1: Faulheit – der Verzicht auf Testing

Manche Marketer halten Dinge wie A/B-Splittests bei E-Mail-Kampagnen oder bei der Optimierung von Onlineshops für langwierigen Ballast. Ballast wirft man fort, damit der Weg zum Erfolg leichter wird und die Kassen schneller klingeln. Aber Faulheit lässt leider keine Kassen klingeln und der Verzicht auf Tests ist Faulheit. Wer ihn für den bequemsten Weg zum Erfolg hält, ist auf einem Irrweg. Es scheinen gar nicht wenige Marketer zu sein, die solch einen Irrweg beschreiten. Laut einer Umfrage der US-amerikanischen Marketinggruppe Relevancy Group unter 386 Marketern nutzen beispielsweise nur 31 Prozent A/B-Tests für ihre E-Mail-Marketing Kampagnen. Die anderen sind Sünder. Aber warum?

Die Wissenschaft entlarvt die Sünde

Wer nicht an den Wert von A/B Splittests für seine Marketing-Kampagnen glaubt, sollte vielleicht einmal intensiver nach Fallstudien über den Wert solcher Tests recherchieren. Zwei Beispielstudien haben wir einmal herausgepickt.

Fallstudie 1: Die falsche Annahme der Marketer

Bobby Hewitt von der US-amerikanischen Designagentur „Creative Thirst“ berichtete im April 2011 vom A/B Test für eine E-Mail-Marketing-Kampagne der „Florida Coastal School of Law“. Mit der Kampagne sollten neue Schüler gewonnen werden. Getestet wurden die beiden Mail-Varianten A und B mit jeweils unterschiedlichem Design und unterschiedlicher Betreffzeile. Zugleich wurden Marketer um eine Einschätzung gebeten, welche Version wohl die erfolgreichere werden würde. 62 Prozent der Befragten entschieden sich für Version B mit dem Betreff „“Revolutionary Law School”. Tatsächlich erfolgreicher war jedoch Version A mit dem nüchterner klingenden Betreff „Study Law in Florida“. Die Conversion-Rate lag bei Version A um 558 Prozent höher als bei Variante B!

Fallstudie 2: Der Wert von roten und grünen Buttons

Die Farbe eines Buttons hat deutlichen Einfluss auf die Conversion-Rate einer für Marketing-Dienstleistungen werbenden Website. Das ist vielleicht keine Aussage, der man sofort vorbehaltlos zustimmt. Ein A/B-Test kann jedoch zeigen, dass dem so ist. Marketer Josh Potter berichtete Anfang August 2011 von einem A/B-Test, bei dem eine ansonsten völlig identische Website für Marketing-Dienstleistungen einmal mit einem grünen und einmal mit einem roten Button ausgestattet wurde. Beide Buttons enthielten den Text „Get started now“ und dienten damit als Call to Action – Elemente. Gewinner war der rote Button, auf den 21 Prozent mehr Menschen klickten als auf die grüne Variante.

Was die Fallstudien zeigen!

Natürlich ist etwa der zweite Tests kein schlagender Beweis dafür, dass grüne Buttons grundsätzlich nicht als Call-to-Action-Elemente funktionieren – für die getestete Website war es aber eine wichtige Erkenntnis. Zwei wichtige Dinge lassen sich deshalb aus den Fallstudien herausfiltern:

  • Ohne A/B-Test hätten sich die meisten Marketer bei der E-Mail-Marketingkampagne für die „Florida Coastal School of Law“ aus dem Bauch heraus für Variante B entschieden. Sie hätten damit die falsche Entscheidung getroffen.
  • Selbst bei so profan wirkenden Dingen wie die Farbe von Buttons kann sich ein A/B-Test lohnen.

Auf Website-Tests (A/B und/oder multivariat) zu verzichten, ist also keine kluge Entscheidung. Es ist ein Irrweg, ein nicht durchdachter Verzicht oder einfach…Faulheit und damit eine Todsünde bei der Conversion-Optimierung.

Jörg Dennis Krüger

Jörg Dennis Krüger ist einer der Pioniere der Conversion-Optimierung in Deutschland. Er ist Autor des Buches “Conversion Boosting mit Website-Testing” und Gründer von ConversionBoosting. Zuvor war er in leitender Position bei QUISMA, Sixt und Regiondo tätig. ConversionBoosting zeigt, wie Unternehmen ihre Websites, Landingpages und Onlineshops für mehr Conversion optimieren können. Dabei ist ConversionBoosting keine Agentur, sondern bietet personalisierte Optimierungsvorschläge, eine Wissensdatenbank, Online-Workshops und weitere Werkzeuge zur Conversion-Optimierung und dem internen Wissensaufbau dazu. Abgerundet wird das Angebot durch eLearning-Kurse mit Abschlusszertifikaten “Fachmann Conversion-Optimierung”, “Spezialist Landingpage-Optimierung”, “Spezialist eCommerce-Optimierung” und “Zertifizierter Master Conversion-Optimierung”

  • Ja, ich gebe es zu. Ich teste auch zu wenig. Aber man kann sich ja bessern….
    Roter Button besser als Grün. Schon interesant manchmal….

    • Da muss ich mich dir anschließen. Aber ich hätte doch eher auf grün getippt, da ja rot eher Signalfarbe ist und Menschen ja eher zum anhalten bewegt und grün ja bekanntlich als Vertrauensfarbe dient und uns auffordert zum gehen oder handeln. Aber na ja, im nternet ist dann doch schon einiges anders.

  • Interessant wird das erst, wenn man sieht, dass aber die Buttons auf sixt.de grün sind. Es ist sehr individuell was gut oder was nicht so gut funktioniert.

  • Danke für den Artikel. Das klingt sehr interessant. Wenn man eine Seite erstellt, dann hat man unzählige male den Button gesehen, so das man diesem kaum noch Beachtung schenkt. Deshalb ist Ihr Artikel eine gute Anregung, mal einiges mehr gründlicher zu hinterfragen.

  • Danke für den Artikel! Ein wichtiges Thema!
    Pre-Tests für E-Mail Kampagnen sind leicht zu erstellen. Aber A/B Tests für Online-Shops sind deutlich kostspieliger. Da fällt es schwer den Shopbesitzern die Notwendigkeit zu vermitteln. Jeder Verkäufer meint, er kennt seine Klientel. Deshalb bin ich für Fallstudie 1 besonders dankbar. Freue mich auch auf weitere Tipps zur besseren Argumentation.

  • Sehr interssant, das mit dem Button. Es hängt aber doch auch viel mit der grundsätzlichen Konzeption der Site zusammen, daher glaube ich nicht, dass man das so pauschal sagen kann.

  • Ich glaube, das Spannende am Fallbeispiel 2 ist gerade, dass die Sache mit der Buttonfarbe so unglaublich banal klingt und das ein Wechsel der Buttonfarbe dennoch – aus welchem Grund auch immer – einen derartigen Einfluss auf die Conversion-Rate hatte. Für mich ist das einfach ein Beleg dafür, dass man keine Eigenschaft eines Elements auf einer kommerziellen Website allzu selbstverständlich als belanglos für den Websiteerfolg ansehen sollte. Nur Senf eines Interessierten.

  • Ich bin auch dafür, dass alle Entscheidungen in Bezug auf Webseiten, Webportale, Webschops, usw. nuch nach dem Testen getroffen werden sollen. Dies soll aber individuell sein, mann darf nicht die Ergebnisse der anderen Studien einfach nehmen und implementieren. Ich bin nicht sicher, dass es good wäre, wenn alle Webseiten rote Buttons hätten. Natürlich gibt es manche Tendenzen, aber das heisst nicht, dass alle Unternehmen gleich sein müssen.

Online-Marketing

3 Growth Hacks für Online-Shops: Jetzt ausprobieren!

Hendrik Lennarz •

Recht

E-Commerce-Recht – Rückblick auf den November 2014

Rolf Albrecht •