Das war der SEO-DAY 2015

Auch in diesem Jahr waren 2 unserer Mitarbeiter auf dem SEO-DAY in Köln. Am Freitag früh machten sich Bahadir und Stephan per Bahn auf den Weg und waren pünktlich zum Frühstück und zur  Begrüßung im Rhein-Energie-Stadion.

Fabian Rossbacher begrüßte als einer der beiden (!) Organisatoren alle Teilnehmer und kurz darauf ging es auch schon los.

Panorama des SEO-DAY 2015 Superpanel

Dominik Wojcik:  7 SEO Tricks, die du garantiert noch nicht kennst

Der SEOCodeDAY war eine Neuerung: Erstmals gab es einen Raum, in dem es vorrangig um technisches SEO und Programmierung bzw. Coding ging. Das war natürlich optimal und schreit geradezu danach, im nächsten Jahr fortgeführt zu werden.

Der Vortrag von Dominik war deshalb natürlich gleich der erste Pflichttermin.

 

Muster von Affiliate-Seiten brechen

Dass reine  Affiliate-Seiten, die keinen oder wenig eigenen Content und damit Mehrwert bieten, weniger gut bei Google ranken ist mittlerweile bekannt. Allerdings braucht Google natürlich Anhaltspunkte, um Affiliate-Seiten automatisiert erkennen zu können. Diese Muster zu brechen kann eine Möglichkeit sein, die Erkennung zu verhindern. Beispielsweise könnten Brandnames der Angebote per Javascript nachgeladen werden, so dass diese nicht im Quelltext der Seite erscheinen. Da Google nur ca. 0,01 % aller gecrawlten rendert, könnte das eine gute Zeit lang funktionieren. Nichtsdestotrotz: Ob man diese Möglichkeit nutzt, muss jeder für sich selbst entscheiden – am Ende bleibt´s natürlich cloaking.

 

Sitemap verwenden, um neue Domain bekannt zu machen

Es gibt Projekte, in denen man keinen Zugriff auf den Code bekommt und die Website gerne unter einer neuen Domain weiterführen möchte. Die Weiterleitung der alten URLs per 301 ist also nicht möglich – eine andere Lösung muss her.
Hier kann ein kleiner Trick in der Google Search Console (ehemals Webmaster Tools) helfen.
Dort besteht die Möglichkeit, eine Sitemap hochzuladen, in der die alten URL als hreflang=„x-default“ und die neue URL als hreflang=“de-de“ hinterlegt werden.

 

Offpage-Signale können fehlende Onpage-Signale kompensieren

Google fordert immer wieder dazu auf, sich um seine Inhalte zu kümmern und aktuell zu sein. Dass es aber offenbar auch anders geht, hat Dominik in einem eigenen Projekt selbst festgestellt. Dort hat er sich jahrelang nicht um seine Inhalte gekümmert und diese nie aktualisiert – dennoch ranken die Seiten bis heute und werfen Umsatz ab.
Das gibt Spekulationen Raum, dass es an den vorhandenen Offpage-Signalen liegen könnte, dass die Seiten noch nicht bei Google in Vergessenheit geraten sind. Ein stetiger Aufbau von Links sollte daher auch für „alte“ Seiten betrieben werden.

 

Whitelisting von Google nicht vergessen!

Über Nacht sind alle Rankings für Bilder komplett weggebrochen – und keiner weiß warum!
Ursächlich war letztendlich ein Script, welches Hotlinking verhindern sollte (und dies auch tat…). Allerdings betreibt Google technisch gesehen nichts anderes als Hotlinking – und kommt daher nicht mehr an die Bilder.
Wenn solche Scripts verwendet werden, sollte daher ein Eintrag in der Whitelist für Google nicht vergessen werden.

 

Query Explorer

Yay, das kannten wir in der Tat noch nicht. Mit dem Google Analytics Query Explorer können z.B. Seiten mit wenig Traffic oder organischen Rankings aufgefunden werden. Ebenso lassen sich damit beispielsweise Seiten mit einer kurzen Verweildauer ermitteln, sodass dann dort gezielt nachgebessert werden kann.

 

Vorsicht bei Anti-Cache-Timestamps

Oft wird bei der Einbindung von Javascript- oder CSS-Dateien in Webseiten der aktuelle Timestamp als Parameter angehängt, um das Caching dieser Dateien im Browser zu verhindern. Allerdings kann dies schnell dazu führen, dass das Crawl-Limit des Google-Bots sehr schnell erreicht wird, da er bei jedem Request ein und dieselben Dateien immer wieder crawlt.
Hier gibt es geschicktere Lösungen, wie man den gleichen gewünschten Effekt auch ohne Timestamp erreichen kann…

 

Jens Fauldraht - SEO Maintenance – SEO als Prozess verstehen

Jens kann eigentlich reden, worüber er will. Geil wird´s allemal.
In seinem Vortrag ging es darüber, dass SEO-Maßnahmen gewartet werden wollen und dass es Möglichkeiten gibt, Probleme frühzeitig zu erkennen. Also noch bevor der Sichtbarkeitsindex den Bach runter geht und die Geschäftsleitung das dann auch mitbekommt.

Der größte Unterstützer hierbei ist die Google Search Console, deren Daten unbedingt immer über die API exportiert und gespeichert werden sollten! In der Search Console sind die Daten nur 90 Tage verfügbar. Ohne exportierte Daten ist ein Vergleich mit Werten aus dem Vorjahr unmöglich. Also: Keine Ausreden, die Daten müssen exportiert werden!

Darüber hinaus sollte die Auswertung immer auf Verzeichnisebene stattfinden und nicht nur für das gesamte Projekt. Andernfalls sind Probleme in kleineren Verzeichnissen nicht erkennbar, weil diese in der Masse schlich und einfach untergehen.
Die Auswertung kann man dann bequem z.B. mit Excel durchführen. Dies sollte übrigens regelmäßig geschehen, beispielsweise einmal pro Woche.

Bei großen Projekten dauert so eine Auswertung jedoch immer recht lange und ist somit nichts „für zwischendurch“. Allerdings sind in den meisten Fällen Änderungen an Templates für Probleme auf der Website verantwortlich, und wenn das Template für Kategorieseiten kaputt ist sind i.d.R. auch alle Kategorieseiten kaputt.
Im Umkehrschluss heißt das: Es reicht meistens aus, einige wenige Beispiele für jeden Seitentyp zu prüfen, um schnell einen Überblick zu bekommen. Dabei sollten aber alle SEO-relevanten Template-Elemente auch geprüft werden. Wenn etwas Neues aus SEO-Gründen eingebaut wurde, muss die Prüfung eben entsprechend erweitert werden.

Um schnell über mögliche Probleme informiert zu werden, sollten die Benachrichtigungen in Google Analytics genutzt werden. Der Phantasie sind nahezu keine Grenzen gesetzt, was dort alles geprüft werden kann. Die Möglichkeiten hier nun wiederzugeben würde den Rahmen dieses Recaps sprengen.

Aus der Google Search Console sollten natürlich auch die Links exportiert und über ein entsprechendes Monitoring überwacht werden.

 

Markus Klöschen - Content Marketing: Vom leeren Blog zum Zitat in der FAZ

Nicht „Markklößchen“, sondern Markus Klöschen. Mit „sch“. Das werde ich mir merken ;-)
Der Vortrag wurde vorgezogen, weil Kaspar Szymanski noch im Flugzeug saß und deshalb nicht rechtzeitig da sein konnte.

Aus dem Vortrag von Markus nehme ich mit, dass neben der Definition von messbaren Zielen auch die Messmethode von Bedeutung ist. Nämlich dahingehend, dass diese vor und nach der (SEO-)Maßnahme  identisch sein muss. Das klingt zunächst banal, wird aber immer wieder vergessen und am Ende vergleicht man dann Äpfel mit Birnen.

Letztendlich bringt es auch nichts, seine Konkurrenten zu kopieren, denn dann wird man sie niemals überholen. Schon bei der Recherche sollte man sich daher von seinen Mitbewerbern abheben und eigene Ideen einbringen. Auch wenn diese mal gar nichts mit den eigenen Produkten zu tun haben. Wichtig ist es, am Ende nicht den meisten, sondern den besten Content zu liefern. Qualität statt Quantität.

Wichtig ist ebenso ein Redaktionsplan, damit wichtige Ereignisse nicht vergessen werden und genügend Vorlaufzeit für entsprechende Aktionen bleibt.

Mit zu vergessen: Immer schön Retargeting-Pixel verwenden ;-)

 

Mario Wolosz - What's next SEO: Besucher in zahlende Kunden verwandeln

Nun ja. Wenn der Speaker sich vorne hin stellt und erstmal sagt, dass er von SEO überhaupt keine Ahnung hat und dann anfängt, sein E-Mail-Marketing-Tool zu verkaufen.

Ich nehme mein Fazit mal vorweg: Es war eine Verkaufsveranstaltung und man wollte offenbar mit aller Gewalt „SEO“ im Titel haben.

Nichtsdestotrotz bereue ich es nicht ganz, sitzen geblieben zu sein, denn es gab doch den einen oder anderen Input, den man auch ohne das beworbene Tool umsetzen kann.

Eines der größten Probleme aller Newsletter-Versender ist zugegebenermaßen wirklich, dass jeder Newsletter stumpf an alle verfügbaren Empfänger gesendet wird. Dass der Inhalt dann letztendlich niemanden wirklich interessieren wird, wird billigend in Kauf genommen.
Besser ist es daher, seine Empfänger zu verschlagworten und diesen dann mit genau auf sie zugeschnittenen E-Mails zu versorgen. Die Empfänger sollen einen Mehrwert aus jeder einzelnen E-Mail haben.
Bis zur Kaufentscheidung sind durchschnittlich 7 Kontakte nötig – bis dahin sollte man den Empfänger nicht durch belanglose E-Mails verloren haben.

Mit Vorsicht zu genießen sind übrigens auch Mailserver, die einen schlechten Sender-Score aufweisen. Bei Servern, über die viele Kunden viele Newsletter (oder anderes) verschicken und entsprechend hohe Abuse-Meldungen eingehen, fällt der Wert und große E-Mail-Provider wie Google, Yahoo oder web.de nehmen E-Mails von diesen Servern erst gar nicht mehr an. Das führt letztendlich dazu, dass ein großer Teil der Empfänger möglicherweise nie einen Newsletter erhält.
Umgehen lässt sich das, indem man einen entsprechend sauberen Mailserver verwendet, z.B. den eigenen.

Der Versand der E-Mails sollte zudem auch immer von einer bekannten E-Mail-Adresse geschehen, auf die die Kunden auch direkt antworten können. „noreply“-Adressen sind ein absolutes NoGo und vermitteln dem Kunden das Gefühl, dass man bloß nichts von ihm hören will.
Vielmehr sollte man sogar versuchen, eine Konversation mit dem Kunden zu führen. So könnte man ihm im – selbstverständlich personalisierten – Newsletter  eine Frage stellen, die er per Antwort-E-Mail beantworten soll.

 

Mittagspause

Nach so viel Input erst mal etwas essen. Und ein bisschen Kontakte knüpfen. Und noch etwas von dem unglaublich leckeren Nachtisch essen.
Im Ernst: Das Essen war verdammt lecker und der Service im Rhein-Energie-Stadion ist absolut Spitze!

Die für die Mittagspause angesetzten 2 Stunden scheinen erst mal recht lang bemessen. Wenn man  allerdings ein bisschen an den Ständen der Sponsoren bummeln geht und den einen oder anderen neuen Kontakt knüpft, vergeht die Zeit auch ruckzuck.

 

Michael Janssen - Dem Googlebot auf der Spur - Extreme High Performance Logfile-Analyse für das kleine Budget

So, frisch von der Verkaufsveranstaltung wühlen wir uns wieder in Code.
Michael klärte die Zuhörer am Anfang auf: Wer nichts mehr kapiert sagt „BINGO“ und verlässt den Raum. Am Ende haben dann auch alle, die am Anfang noch auf dem Boden sitzen einen Sitzplatz. Er sollte Recht behalten.

Im Vortrag ging es zusammengefasst darum, den Googlebot in seinen Logfiles zu erkennen, diesen zu analysieren und daraus dann letztendlich Schlüsse zu ziehen. Die Tools, die dafür verwendet werden können (z.B. logresolve, graylog, logstash, etc.) wurden von Michael anhand von Beispielen kurz vorgeführt.

 

Johannes Beus - Google Search Console - Was zeigen uns Googles Rankingdaten

Der Sistrix-Gründer Johannes Beus stellte einige Statistiken und Auswertungen vor, die letztendlich vermutlich jeder im Raum in ähnlicher Form auch erwartet hätte. Große Aha-Momente gab es für mich jedenfalls nicht und diesen Vortrag hätte ich mir eigentlich sparen können.

Wie dem auch sei: 99,1 % aller Nutzer klicken bei Google auf ein Suchergebnis auf der ersten Seite. Demnach sind alle Rankings unterhalb von Platz 10 keinen Pfifferling wert.
Platz 1 wird auf Desktop-Geräten häufiger angeklickt als auf Mobilgeräten, am Wochenende steigen die Zugriffe von Mobilgeräte gegenüber den PCs stark an. Nun ja, auch das deckt sich mit meinen Erwartungen.
Länderübergreifend gab´s dann noch ein paar Unterschiede, aber auch das war zu erwarten.

Die Statistiken von Johannes hätten mit persönlich als Blog-Artikel jedenfalls vollkommen ausgereicht.

 

Kaspar Szymanski - Penalty Recovery - Tipps von Ex-Googler

Nachdem Kaspar Szymanski sicher gelandet war, konnte sein Vortrag nun nachgeholt werden.

Ein wichtiges Learning daraus ist sicherlich, dass man Googles Richtlinien immer im Blick behalten sollte, da sich diese regelmäßig ändern. Dadurch muss es gar nicht erst zu einer Penalty kommen, wenn man frühzeitig bemerkt, dass man selbst betroffen sein könnte.

Ist es dennoch zu einer Abstrafung seitens der Suchmaschine gekommen, muss zwischen manuellen und algorithmischen Maßnahmen differenziert werden. Während algorithmische Maßnahmen automatisch geschehen steckt hingegen bei einer manuellen Maßnahme tatsächlich ein Mensch dahinter, der die betroffene Website untersucht hat. Eine solche Maßnahme ist zeitlich auch nicht begrenzt. Die Maßnahme „auszusitzen“ wird also nicht funktionieren, vielmehr muss man die Probleme anpacken und beheben.

Handelt es sich bei der manuellen Maßnahme um eine Abstrafung aufgrund von minderwertigen Links, können diese über eine Disavow-Datei entwertet werden. Zwischen dem Upload der Datei und dem darauffolgenden Reconsideration-Request – also der Aufforderung an Google, die Seite erneut zu prüfen – sollten 48 Stunden Zeit vergehen.
Am besten sei es, die Disavow-Datei Freitags hochzuladen und den Reconsideration-Request am folgenden Montag zu stellen, da der Google-Mitarbeiter dann nach einem erholsamen Wochenende am besten gelaunt ist ;-)

 

Christian Tembrink - SEO beyond Rankings - Wie Webseiten SEO ganz von alleine erledigen können

Mit dem Titel des Vortrags tu ich mir hier ehrlich gesagt auch ein bisschen schwer… Letztendlich ging es eigentlich eher darum, wie ich mit Sonderzeichen eine höhere Click-Trough-Rate (CTR) meiner Snippets erreichen kann.

Die beiden Speaker betrachteten das Thema aus psychologischer Sicht und führten dazu einen Test mit 100 Probanden durch. Diese sollten Weihnachtsgeschenke googlen und bekamen dann Snippets angezeigt, die mit unterschiedlichen Mitteln präpariert waren.
Zum einen wurde eine „Psychobombe“ eingesetzt („Seit X Jahren die besten Weihnachtsgeschenke“, „Mehr als Y zufriedene Kunden“, „Urteil: Sehr gut!“, etc.), zum anderen wurde ein Snippet mit Sonderzeichen angereichert (Schneeflocke, Sternchen, Herzchen, Schneemann…). Als dritte Variante wurde noch eine Kombination aus den beiden ersten Snippets getestet.

Die Auswertung zeigte dann deutlich, dass Sonderzeichen einen positiven Einfluss auf die CTR nehmen, während hingegen die Psycho-Tricks nahezu wirkungslos blieben. Man muss dabei allerdings auch beachten, dass Sonderzeichen möglicherweise nur in einem emotionalen Umfeld so wirken, wie es im Test der Fall war. Zitat: „Wer Panzer verkauft, sollte keine Herzchen in die META-Description schreiben“.

 

Jakob Holterhöfer - Developing for PageSpeed

Ein weiterer Vortrag im SEOCodeDay, allerdings nicht ganz auf Augenhöhe mit Michael Janssen und Dominik Wojcik. Der Speaker Jakob Holterhöfer ist den Fragen der Teilnehmer leider eher ausgewichen als dass er sie beantwortet hätte. Schade eigentlich.

Vor dem SEO-DAY hat er sich alle Domains der Teilnehmer zukommen lassen und diese dann im Bezug auf die Pagespeed untersucht. Es gab dabei auch einen Gewinner, allerdings lieferte dessen Seite nur eine 403 zurück…

Optimierungsbedarf besteht oft in Wordpress-Themes, die alleine für die Startseite mehr als 80 Requests auf die Datenbank durchführen. Ebenso sollten – unabhängig vom CMS – Bilder, Javascripts und CSS optimiert und zusammengefasst werden. Hierbei können Frameworks wir Grunt eine Hilfe sein. Ebenso kann durch dynamische Komprimierung von Serverinhalten mittels mod_deflate die Ladegeschwindigkeit verbessert werden.
Um die Webseite im sichtbaren Bereich (above-the-fold) schnell auszuliefern, können Inhalte zudem asynchron nachgeladen werden.

 

Malte Landwehr - 8 häufige SEO-Fehler

Zum Abschluss der Vorträge besuchten wir nochmal Malte bei etwas leichter Kost im Einsteiger-Raum, weil die anderen Themen uns nicht so recht angesprochen hatten. Und wegen Malte. Natürlich. Sein Thema hatte er von angekündigten 10 auf 8 Fehler reduziert – und auch ich werde jetzt nicht auf jeden einzelnen eingehen.

Einer der angesprochenen Fehler war, dass Titles von Webseiten nicht sauber gepflegt werden. Dass dies tatsächlich der Fall ist und auch erfahrenen SEOs passiert zeigte er daran, dass dies bei der Timetable des SEO-DAY 2015 der Fall ist ;-)

Für bestehenden Content  sollte ein Update-Plan erstellt werden, nach dem der Inhalt dann ich bestimmten Abständen überprüft und ggf. aktualisiert wird. Je nach Thema könnte sich die Rechtslage geändert haben oder es liegen neue wissenschaftliche Erkenntnisse vor. Letztlich ging es darum, dass man seinen Content aktuell halten sollte.

Bei der Optimierung seiner Seiten sollte man auch den Suchkontext nicht unbeachtet lassen. Am Beispiel der Suche nach „Dirndl“ und „Dirndl Schleife“ wurde das deutlich: Während nach „Dirndl“ am PC hauptsächlich Damen suchten (die wohl ein Dirndl kaufen möchten), suchen nach „Dirndl Schleife“ größtenteils Herren auf Mobilgeräten, die wohl gerade auf dem Oktoberfest noch mal schnell prüfen wollten, ob sie das fesche Madl denn jetzt ansprechen sollten oder nicht.

 

Superpanel

Einem Rudel Experten dabei zuhören, wie sie über Verbesserungsmöglichkeiten verschiedener Websites von SEO-DAY-Besuchern sinnieren – das ist das Superpanel. In diesem Jahr allerdings wesentlich weniger direkt als im letzten, aber trotzdem äußerst interessant.

Ebenso wurde im Superpanel der beste Speaker des Tages ausgezeichnet. Diesen Preis durfte Jens Fauldraht mit nach Hause nehmen. Verdient, wie ich finde.

Bei der Verlosung von 3 Karten für den SEO-DAY 2016 hatte wir Glück, denn Bahadir konnte die Jury mit einer Platzhalter-Banane überzeugen ;-)

 

 

Weitere Recaps des SEO-DAY 2015: