On-Demand Webinar: Enterprise SEO

Enterprise SEO - oder: wie optimiert und überwacht man ein Kundenprojekt mit 160 Domains?

Das erfahren Sie im Webinar:

Probleme, Fallstricke und Lösungen für wirklich große Websites. Wie skaliert man SEO Maßnahmen - und warum man dann doch ab und zu auf die Nase fällt. Matthias Hotz erzählt aus dem Tagesgeschäft mit großen Kunden und gibt Tipps und Hinweise, wie man in diesem Umfeld Ergebnisse erzielt.

Dauer: ca. 60 Minuten

Die Referenten

Matthias Hotz ist Head Of Technical SEO bei der diva-e Advertising und war vorher Teamleiter und Entwickler bei der 1&1 Internet AG, unter anderem verantwortlich für DSL, Mobile und Hosting Shops. Er war Speaker auf SEO Konferenzen wie der SMX und dem SEO Day. Bei der diva-e Advertising entwickelt er SEO Tools und betreut Kunden, wenn es um Analyse und Optimierung von technischen SEO Maßnahmen geht. In seiner Freizeit betreibt er das kostenlose SEO Tool seorch.de.
Matthias Hotz
Head Of Technical SEO diva-e Advertising
Christian Paavo Spieker ist Entrepreneur und SEO Evangelist. Schon 1995 gründete er das Unternehmen Concept Advertising in München, das er zu einer der führenden Webdesign-Agenturen ausgebaut hat. 2006 folgte die One Advertising AG, die seit 2017 zur diva-e Family gehört. Seitdem ist Christian CEO der diva-e Advertising.
Christian Paavo Spieker
Founder & CEO diva-e Advertising

Transskript des Webinars: Enterprise SEO

Intro

Angela Meyer: Ein herzliches Willkommen, heute gibt unser SEO-Experte Matthias Tipps, wie es möglich ist, ein Kundenprojekt mit 160 Domains zu optimieren und zu überwachen. Und wenn Matthias ihn zu Worte kommen lässt, darf Paavo auch etwas dazu sagen. Das ist euer Stichwort, und ich freue mich nun auf unsere SEO-Experten Christian Paavo Spieker und Matthias Hotz. Viel Spaß.

Christian Paavo Spieker: Hallo und herzlich willkommen. Da wir dieses Jahr ja ein bisschen knapp an den SEO-Konferenzen sind, SMX abgesagt, alles irgendwie schwierig und selbst unser Meet-Up in München nicht mehr stattfinden kann, haben wir jetzt dieses Format gewählt, um mit euch zu kommunizieren. Ich hoffe, das funktioniert jetzt mal ganz gut auf diesem Wege. Vielleicht ein paar Worte zu meiner Person, für diejenigen, die mich nicht kennen: Ich bin Paavo, Christian Paavo Spieker. Woher kommt der Paavo? Muss ich immer kurz aufklären, meine Mutter ist Finnin, ich bin also halber Finne. Als ich in Deutschland eingeschult worden bin, wollte meine Mutter den Migrationshintergrund verschleiern und hat dann den Christian gewählt. Und seitdem lebe ich in dieser Namenskonfession Christian, Paavo, oder einfach Christian Paavo, ich höre eigentlich auf beides. Ich bin Gründer und CEO der diva-e Advertising. Ich mache SEO schon seit, hier steht 1997, da gab es noch nicht mal Google, aber schon seitdem. Das hat mit AltaVista damals angefangen, SEO. Bin 49 Jahre alt, der Pitt Glöckle meinte gestern: „Als du SEO gemacht hast, da hat die Google-Aktie noch 85 Dollar gekostet.“ Da hat er nicht ganz Unrecht. Das war allerdings 2004, also, damals gab es die noch gar nicht. Ja, ich bin im BVDW SEO-Expertenbeirat und habe so Hobbies. Motorsport, Kart, die mich kennen, wissen das, alles was ein bisschen schnell ist und was alte Männer gern tun. Darf ich alles nicht mehr, das einzige Hobby, was mir geblieben ist, ist SEO. Deswegen freue ich mich umso mehr, dass ich heute darüber ein bisschen mit euch sprechen kann. Ich habe mittlerweile zwei Kinder, bin also Spätzügler, Annalena und Timo. Und, ja, meine E-Mail-Adresse ist, wenn mir irgendjemand was schreiben will, PAAVO@diva-e.com. Oder, noch viel besser, auf LinkedIn /PAAVO-spieker/, da will ich nämlich gerade die 7.000 Kontakte knacken. Also, wenn sich noch jemand hinzufügen will, der es noch nicht getan hat, kann er es gern an dieser Stelle tun.

Mein Vision Statement immer: Wenn es rankt, ist es SEO, wenn nicht, ist es doof. Wurde ich mal korrigiert, irgendwann. Deswegen stehe ich aber immer noch dazu. Und ich freue mich, dass ich noch ein paar Worte zur diva-e Advertising sagen darf. Die gibt es seit 2006, dann haben wir natürlich, oder freuen wir uns natürlich sehr, haben wir den SEMY Award für beste SEO-Agentur gewonnen, des Öfteren, und 2017, unser Credo war immer: Wenn du gutes SEO machen willst, brauchst du auch immer eine verdammt gute Plattform. Dann haben wir gesagt, na gut, wäre ja ganz schlau, wenn wir eine Plattformfirma auch hätten. Haben die damals mit der One Commerce gegründet, hat alles nicht funktioniert.

2017 haben wir gesagt, na gut, tun wir uns mit der diva-e zusammen, die können richtig gut Plattformen entwickeln, auf Adobe, auf Bloomreach, SAP-Hybris, ohne jetzt weiter ins Detail zu gehen. Und seitdem sind wir dann da natürlich auch super gut aufgestellt und haben uns dann auch gleich in die diva-e umbenannt, in die diva-e Advertising. Wir sind da jetzt vier Units, die diva-e Advertising, diva-e Platforms, diva-e Products und diva-e Datacenters haben wir auch noch in Frankfurt. Und 2018 haben wir dann nochmal den SEMY Award gewonnen für beste SEO-Agentur. Das ist für uns natürlich eine große Ehre, dass das auch von außen honoriert worden ist. Und dann, ein BVDW Zertifikat Enterprise haben wir auch noch und zu unseren Kunden dürfen wir 20 Prozent der deutschen DAX Unternehmen zählen, oder für die wir arbeiten. Also, was ist das Geheimnis unseres Erfolges, was ist so die Secret Source? Da habe ich immer in den letzten Wochen gerade auch gehört, die sind ja schon so lang am Markt, die haben mega Google Connections, die kennen die alle total gut, und, gut, die kennen wir natürlich wirklich schon eine ganze Weile.

Aber unsere Secret Source, so, Matthias, ist TnT. Ja, Talent & Tools, das ist eigentlich der Trick. Ist eigentlich ganz einfach, ja, und Talents haben wir einige. Ich sage immer, wir haben das größte SEO-Team in Deutschland, da sagen viele: „Oh, ist das sicher, bist du sicher, dass wir das größte sind?“ Ich sage es mal so, wir sind auf jeden Fall nicht das kleinste. Wir haben einen sehr großen Content-Bereich und eben SEO Developments. Ich habe es eingangs schon gesagt, ich weiß nicht, wer schon drin war, die weibliche Quote SEOs ist über 60 Prozent, so in dem Dreh. Also, die Frauen regieren uns langsam, finde ich auch toll.

Und nächste Slide bitte, und dann haben wir natürlich noch die Tools. Da haben wir unser OneProSeo-Tool, da haben wir, arbeiten wir mit RYTE, das wird jetzt eben hier auch in der Präsentation vorkommen, wird der Matthias gleich zu was sagen. Reporting haben wir dann Qlik, bei diesem Projekt aber natürlich bedienen wir auch, oder nutzen wir eben alle gängigen Tools, die eigentlich auch auf dem Markt sind. Von der Searchkonsole dann über SEORCH, das ist so das Endkundenprodukt von Matthias, und ich kenne kaum jemanden, der Talents und Tools besser vereinen würde als mein Kollege Matthias Hotz. Und deswegen darf ich an ihn jetzt den Slider übernehmen, beziehungsweise hat er ja schon, und wünsche euch viel Vergnügen und bin schon gespannt auf eure Fragen. Matts, gib Gas.

Matthias Hotz: Ja, mache ich. Hallo. Ich bin der Matthias, Matts, wie auch immer. Ich bin eigentlich Softwareentwickler, habe jahrelang bei der 1&1 Contents gebaut, habe die Webshops betreut, die Bestellstrecken. Da komme ich ursprünglich her. Also, ich bin so der HTML-, Javascript-, CSS-Typ, kann auch Backends entwickeln, NoJazz, Hyphen, et cetera. Und mache dadurch, dass ich gut entwickeln kann, auch ganz gutes technisches SEO. Meine Hobbys: biken, hauptsächlich, Software bauen mache ich gern, und Musik hören. Jetzt will ich euch aber nicht weiter mit mir langweilen. Kurz zu den Eckdaten, um was es hier geht: Ich will euch ja was zu Enterprise SEO erzählen.

Einstieg in die Thematik Enterprise SEO am Kundenbeispiel

Enterprise SEO, das hat jetzt keine fixe Definition, ich habe es jetzt einfach mal auf dieses Projekt übergestülpt, weil es komplex und groß ist. Also, wir haben hier zwei globale Brands. Der Autobauer hat 100 Milliarden Umsatz im Jahr. Brand A hat 120 Domains mit zirka 600.000 URLs, und die Brand B hat 40 Domains mit zirka 400.000 URLs. Wir haben darunter Exoten wie Reunion, Myanmar, aber auch irgendwelche karibischen Inselnetze, die eigene Toplevel-Domains, und teilweise als eigene Märkte betrachtet werden. Die technische Basis, also, das, was quasi nachher die Website da ausliefert, ist der Adobe Experience Manager. Früher hieß das mal CQ 5, das kam aus der Schweiz. Adobe hat das dann gekauft und hat das in Adobe Experience Manager umbenannt. Es gibt dort quasi keine zentrale Betreuung der Websites. Natürlich ist die Basis der Adobe Experience Manager. Da werden die Websites drüber ausgeliefert, aber die Märkte haben sehr großen Einfluss auf ihre Inhalte. Die können jetzt nicht andere Autos oder andere Modelle verkaufen, aber bei der Ausgestaltung sind die natürlich schon, ja, haben die einen großen, gewichtigen Hebel, das eigene Sagen. Sie können auch viele SEO-Parameter eigentlich selbst verantworten.

Die technische Umsetzung zwischen den zwei Markten, also zwischen den 120 und den 40 Domains, ist komplett getrennt. Die nutzen zwar beide den AEM, allerdings in unterschiedlichen Versionen, und arbeiten teilweise auch mit unterschiedlichen Agenturen zusammen. Teile laufen in-house, bei der Brand B läuft gar nichts in-house.

Und, genau vor diese Herausforderung wurden wir quasi gestellt, wo wir das Projekt bekommen haben. Also, wir haben, um das mal so zu sagen, eine minimale Kontrolle über die Webseite und über die Inhalte. Wir haben viel Bürokratie, Anpassung und Änderung sind in Entwicklungszyklen drin, die können teilweise Monate dauern. Also, es gab teilweise, also, wir schimpfen immer so quasi, wenn-. Also, ich schimpfe immer als Softwareentwickler, wenn ich irgendwas nicht in einer Woche umgesetzt kriege. Aber bei unseren Kunden wird gefeiert, wenn was in zwei bis drei Monaten umgesetzt wird, weil sie teilweise schon 1,5 Jahre auf manche Dinge warten mussten. Wir müssen mit verschiedenen Abteilungen zusammenarbeiten, unter anderem halt auch im Ausland. Also, wir haben Calls mit Japan, wir haben Calls mit Spanien, wir haben Calls mit Frankreich, et cetera. Und dann trifft man natürlich unterschiedliche Gemüter, unterschiedliche Lebensmentalitäten, und so weiter. Und deshalb würde sich halt in-house SEO anbieten, wenn man immer vorher quasi in der Botschaft im Iran gearbeitet hat.

Also, das ganze Projekt ist die Optimierung der Website, während man permanent mit allen möglichen Prozessen konfrontiert ist, neuen Prozessen, Änderungen der Struktur, politischen Entscheidungen, et cetera. Und dann wollen wir halt SEO machen.

SEO-Basics und Voraussetzungen

Und da fangen wir jetzt bei den Basics an. Basics sind für mich, wenn ich eine neue Website übernehme, ist erstmal technisches SEO. Die Rechnung ist ja einfach, 30 Prozent SEO ist technisch, 30 Prozent SEO sind Content, 30 Prozent sind externe Signale und 10 Prozent sind die Tweets von John Müller oder so. Auf jeden Fall, ohne das eine funktioniert das andere nicht. Also ohne meine technische Basis brauche ich keinen Content produzieren. Und deshalb ist quasi das erste, was ich machen muss, mir diese technische Basis mal angucken, und wenn ich da Fehler finde, die optimieren, oder die Fehler abschalten zumindest, nach der alten 80/20. Und das sind so die Aufgaben, die man hat.

Wir haben 160 Search Console Accounts zu überwachen, wir haben eine Million Websites zu crawlen, wir wollen die wichtigen SEO-Seiten zusätzlich im Auge behalten, wir wollen außerdem Rankings in 160 Ländern überwachen. Und dann will der Kunde ein Reporting und den Fortschritt sehen, und was kriegt er für sein Geld? Und das sind dutzende Ansprechpartner, weil die Märkte, sagen wir mal Japan, oder der arabische Markt, die haben ihre eigenen Budgets und zahlen das teilweise aus eigener Tasche. Dementsprechend müssen wir alle abholen und reporten, sonst sagen die irgendwann, die deutsche SEO-Agentur, die bringt uns ja nichts, da können wir ja wieder mit unserer lokalen Agentur arbeiten.

Automatisierung von SEO-Routineaufgaben

Wenn ich diese ganzen Voraussetzungen sehe, dann hätte ich gerne eine Schar Minions, die mir quasi mein Leben erleichtern. Aber so einfach ist das leider nicht. Also, wir brauchen ein exzellentes Team, das ist ganz klar. Wir brauchen viele Dinge, die routinemäßig gemacht werden müssen, abgearbeitet werden. Wir haben allerdings begrenzte Ressourcen, wir können jetzt auch nicht 200 SEOs einstellen, zumal, die finden wir nicht. Also, wirklich gute SEOs sind Mangelware, das haben wir in den letzten zwei Jahren gemerkt, weil wir da gestafft haben. Und dementsprechend hatten wir auch viele, die eben die Skills für so ein Projekt vielleicht noch nicht haben und sich erst dahin entwickeln müssen, aber wir brauchen jetzt fähige Leute. Wir wollen aber auch dem Team Platz schaffen, damit die nicht überarbeitet sind mit irgendwelchen Routineaufgaben, sondern dass die an den SEO-Hebeln arbeiten können. Wie die meisten von euch sicher wissen, nur Manpower auf ein Projekt zu werfen, macht meistens nicht effektiver, sondern konfuser.

Dann haben wir uns überlegt, wir müssen mal das Zeug weg automatisieren, was eh keiner machen will. Also, das Schlimmste für einen cleveren Mitarbeiter, der vielleicht auch noch gut bezahlt wird, ist ja, wenn er mit Routineaufgaben gelangweilt wird. Das will keiner, sondern die wollen was Spannendes machen und die wollen nachher sehen, dass sie was erreicht haben. Keiner will 160 Searchkonsolen durchklicken und gucken, ob die Probleme haben. Deshalb haben wir überlegt, wir automatisieren alle Routineaufgaben. Keiner soll mehr Auswertungen, Überwachungen machen, keiner soll mehr eben diese Routineaufgaben machen. Weil wenn man keine Lust darauf hat, dann verzettelt man sich, dann prokrastiniert man und am Ende hat man auch ein schlechtes Gefühl im Bauch, weil man irgendwie auch nichts gemacht hat. Die ganzen Ergebnisse aus diesen Routineaufgaben sollen quasi als Aktion vorliegen mit den Daten, die eine Person oder ein Team braucht, um die abzuarbeiten. Seien es Entwickler, seien es Projektmanager, seien es Business Engineers oder seien es Front-End-Leute, die das High-End pflegen.

Crawling und Reporting

Wir wollen aber auch Alerts haben, dass wir nicht montags morgens schlimm überrascht werden - „Shit hits the Fan“ - und uns die Sachen um die Ohren fliegen. Dann haben wir uns erstmal mit dem Crawling beschäftigt, da haben wir-, es gibt natürlich diverse Tools da draußen, aber wir haben uns für RYTE entschieden. Das hat auch ein paar Gründe, das soll jetzt keine Werbung sein, aber mit RYTE können wir sehr genau das aufsetzen. Die haben für uns auch die 160 Domains angelegt. Wir crawlen die Domains teilweise im wöchentlichen, teilweise im monatlichen Rhythmus und holen uns dann über die RYTE API die ganzen Daten, die wir brauchen. Also, kaum einer guckt in RYTE rein, ganz ehrlich, sondern nur, wenn etwas echt komisch ist. Aber wir laden, soweit ich das immer sehen kann, pro Woche ein bis zwei Gigabyte aus der RYTE API raus. Und ich bin immer der, dem es auffällt, wenn sie nicht, wenn mal glitcht, sie funktioniert in der Regel.

Und diese Daten werden dann von uns zu einem Reporting aufgearbeitet und dadurch, dass, also, was das Coole halt an der RYTE API ist, die Filtermöglichkeit, die die in ihrem Front-End anbieten, kann man sich quasi als API-Methode direkt rauskopieren. Sprich, ich kann meine ganzen Filter, die ich brauche, weil gegebenenfalls möchte ich URLs ausschließen oder irgendwie auf eine gewisse Bildgröße filtern, die kann ich alle sehr exakt in der API abbilden, was es uns natürlich dann sehr einfach macht. Hier rechts seht ihr dann, wie so ein Report erstellt wird. Beziehungsweise was ein Marketer draußen sieht und was ein Marketer draußen kriegt.

Also, das sind hier die verschiedenen Fehlerursachen, die es geben kann, wie ein 404, ein 500er, ein 302, alles was man als SEO nicht haben will. Die Veränderung jeweils in dem Fall jetzt hier zur Vorwoche, aber wir können auch zu mehreren Wochen reporten. Und an den Daten hängt dann noch ein Excel File dran. Diese Excel File beinhaltet wirklich die Action, die man dazu braucht, also wenn ich zum Beispiel einen 404 habe, dann brauche ich ja, von wo wird es verlinkt, wie ist der Linktext, und wohin linkt es, um diesen Fehler zu beheben. Mir bringt es nichts eine Liste von 404-Fehlern zu haben, wenn ich nicht weiß, wo die herkommt. Für jeden von diesen Fehlern gibt es ein Excel File und das geht dann zu den jeweiligen Ansprechpartnern, im Falle von unseren Kunden sitzen die in Indien, die bearbeiten diese Listen dann.

Also ein Beispiel jetzt, hier haben wir intern verlinkte Weiterleitungen, das ist jetzt kein böser SEO-Fehler, aber man will es halt nicht haben. Dann kriegen wir die Anzahl der Weiterleitungen, oder quasi die Quelle, die Quell-URL, die URL der Weiterleitung, die Ziel-URL, und auch die Handlungsanweisungen, weil diejenigen, die es nachher bearbeiten, die haben von SEO keine Ahnung. Also, wir erklären ihnen, was sie tun sollen in dem Excel schon drin, da sind oben noch Felder drin, und dann gibt es dazu noch eine verlinkte FAQ, wo sie nochmal genauer nachfragen können, beziehungsweise nachlesen können. Und so crawlen wir über eine Million Websites und erstellen daraus ein Reporting, das dann der Stakeholder und die Business Manager und alle Ansprechpartner kriegen, und feingranular gehen dann diese Excel Files an die verschiedenen Bereiche, wo es gefixt werden muss. Weil zum Beispiel 301-Fehler fixen wir nicht in Indien, sondern dafür gibt es was anderes, et cetera.

Performance Reporting

Zusätzlich gibt es dann ein Performance Reporting, also, wir wollen ja auch die 160 Domains überwachen. Ist natürlich Sistrix und Search Metrics, und wie sie da draußen alle heißen, sehr gut, aber die bieten keine 160 Länder an. Deshalb haben wir das quasi mit OneProSeo selbst gebaut, wo wir diese ganzen wichtigen Keywords anlegen und auch mit lokalisierten Suchvoluminas et cetera anreichern, und das dann auch teilweise auf wöchentlicher, teilweise auf täglicher Basis tracken. Und dieses Performance Reporting ist erstmal im Sinne von, wie rankt das Keyword, wie hat sich es verändert, die Position geht zusätzlich monatlich an alle diese Märkte hinaus. Ist also komplett vollautomatisiert, wir machen da eigentlich nichts. Sprich OneProSeo, das unser internes SEO-Tool ist, bildet eine API. Bei der Reporterstellung zapfe ich diese API an und die hat diese Templates einmal gebaut und drückt einmal im Monat nur noch auf senden und die Teile werden rausgesendet, ohne, dass irgendwer sonst irgendwas tut. Also, ab und zu mal noch drüber gucken oder Rechtschreibfehler fixen. Genau. Also, dadurch ist bei ProSeo unter anderem witzigerweise sogar eine ganze Performance-API entstanden, die jetzt halt alle möglichen Leute für Power BI, Data Studio, Qlik und so weiter benutzen.

Wir aggregieren jetzt auch Searchkonsolen und so weiter. Searchkonsolen bieten natürlich auch eine API, mit der ich die ganzen Fehler mir abziehen kann und reporten kann, aggregieren wir die Daten noch zusätzlich mit zusammen. Also, wir kriegen auch noch die Clicks, die Impressions, et cetera mit dazu und können eben das gleichzeitig mit reporten. Das mal zum Thema Performance Reporting.

Automatisierte Prüfung der robots.txt

Dann gab es aber jede Menge custom Probleme, die man hatte. Also, man kann sich das vielleicht vorstellen, bei einer Website - eine Website hat einen Lebenszyklus, manche Websites einen längeren, manche einen kürzeren. Und da bleibt viel irgendwann liegen, oder wird vergessen. Wir mussten für alle 160 Domains die robots.txt und die XML-Sitemaps prüfen. Das will auch keiner manuell machen. Also, selbst wenn ich sage, ich könnte jetzt eine XML-Sitemap in irgendeinen Crawler schmeißen und die dann prüfen, ich will es nicht 160 Mal machen. Wir haben so ein Script geschrieben, also, das ist quasi ein Job, der auch in einem Server liegt, der sich die robots.txt erstmal holt, von allen 160 Domains die jeweiligen Tags prüft, schaut, ob Disallow-Regeln drin sind, zusätzlich dann die Sitemap daraus extrahiert. Ist keine Sitemap da, gibt es ein Pattern, in dem die Sitemap liegen kann. Sprich, man kann ja in der robots.txt die Sitemap verlinken oder auch nicht. Und dann prüfen wir die robots.txt auf Validität, die Sitemap auf Validität, und alle URLs der Sitemap werden dann angefragt und auf ihren Statuscode geprüft, und daraus wird ein Reporting erstellt. So haben wir herausgefunden, dass eben von den 160 Domains zirka die Hälfte gar keine Sitemaps hatten, beziehungsweise über ein Drittel keine robots.txt hatten. Und das ist ein globaler Scale, wo man es dann abstellen kann. Zusätzlich, indem wir die XML-Sitemaps dann prüfen, und alle URLs auf ihre Validität, haben wir herausgefunden, dass die Sitemaps irgendwann mal generiert wurden, aber das AEM, also das CMS-System, keinen Prozess hatte, einfach, die neu zu generieren oder alte rauszuwerfen. So haben wir hunderte von Seiten gefunden, die es eigentlich gar nicht mehr gab, oder die mit einer Weiterleitung oder einem 404 geantwortet haben. Das hätte manuell, ich weiß nicht, Tage, Wochen gedauert.

Redirect-Verwaltung über Akamai

Unser Script kann ich permanent anstoßen und bekomme am Ende ein fertiges Excel raus und habe eine Auswertung dazu und kann auf die Werte filtern, die ich haben möchte. Dann haben wir ein weiteres Custom Script oder einen Custom Job gebaut. Wo quasi die ganzen Redirects, also, wer das kennt, wer an einer Website arbeitet, die es schon lange gibt, weiß, dass es da unter anderem vielleicht wenn man ein Patch benutzt, in der .htaccess hunderte, vielleicht tausende an Redirects drin sind. Und die teilweise auf sich selbst weiterleiten, teilweise in 404 enden, Weiterleitungsketten erzeugen, et cetera pp. Alles macht keinen Spaß und man will es eigentlich fixen. Und der Kunde verwaltet seine Redirects über Akamai. Da gibt es so einen Edge Redirector.

Und was haben wir gemacht? Wir haben die alten Akamai Files, die alten Serverfiles genommen, alle URLs geprüft, also sprich, alle Quell-URLs, die man so hat und auch die Ziel-URL geprüft. Und geguckt, was antwortet denn mit einem 404, was mit einem 302, was hat Redirect Loops und so weiter. Das waren tausende von Redirects, und dann haben wir die geprüft, wo sie am Ende rauskommen, und haben ein neues File erstellt, dass die direkt in diesen Akamai Edge Redirector hochladen konnten. So mussten wir nicht irgendwelche Regeln einzeln anfassen. Weil das wäre gar nicht gegangen, da wäre ich oder wäre irgendwer Wochen oder Monate dran gesessen.

So konnten wir das für ganze Marktgruppen, also zehn Märkte auf einmal durchprüfen und das fertige File in Akamaihochladen. Da kann auch mal was schiefgehen, ich habe da mal die Kundenwebsite kurz abgeschossen, weil ich einen Fehler eingebaut hatte, war teuer, ist dann auch nicht mehr vorgekommen. Dann, nachdem wir so die Basics mal durchgekehrt hatten, wollen wir jetzt URLs überwachen.

Also, schönes Beispiel: Wir hatten jetzt bei dem Kunden in Frankreich, also bei dem Markt in Frankreich, eine URL, da haben sie einen Splittest, AB Test, Variantentest draufgefahren und haben allerdings das auf eine neue URL weitergeleitet. Und die alte, die URL, die wir eigentlich im Index haben wollen, die auch nach dem Variantentest wieder da sein soll, haben sie abgeschaltet. Was heißt abgeschaltet, die ist aus dem Index rausgeflogen. Die gab es natürlich noch, aber da die jetzt weiterleitet, hat Google die Ziel-URL natürlich genommen, so. Das ist uns dann erst aufgefallen, wo es schon zu spät war. Und dann haben wir ein Tool gebaut, wo wir unsere wichtigsten URLs eintragen, die für uns extrem SEO-relevant sind, die die massivsten Rankings haben, die als Link-Hub fungieren. Und die prüfen wir alle 24 Stunden auf alle Parameter, die uns interessieren.

Also zum Beispiel einen http-Status, hat sich die robots.txt verändert, wie ist die Time-to-first-Byte, wie ist der Title-Text, wie ist der Canonical und so weiter. Und hier rechts sieht man im Screenshot immer, wenn sich irgendwas verändert, gibt es so einen kleinen roten Böbbel, wo man sich dann den Diff anzeigen kann. Genau, hier rechts sieht man dann auch so einen Diff, wenn sich was verändert. Aber der Gag dahinter ist eigentlich, dass wir Custom-Alerts bauen können. Also, wir können sagen, wenn sich die Meta-Description, also als einfaches Beispiel, im Zeichenbereich zwischen 30 und 160 Zeichen befindet, möchten wir gar nicht informiert werden. Wenn sich weniger als fünf Prozent des Textes auf der Seite ändern, möchten wir gar nicht informiert werden. Wir möchten aber informiert werden, wenn sich mehr als 50 Prozent des Textes ändern, oder wenn die Time-to-first-Byte über 0,5 Sekunden liegt. Und erst dann bekommen wir einen Alert. Dann können wir schnell eingreifen, weil, wie gesagt, da arbeiten so viele Leute an diesem Projekt, dass es sonst, man kriegt es einfach nicht mit.

Man kann das nicht alles überwachen, wenn man nicht theoretisch für jeden Markt eine einzelne Person hat. Das war mal zu der Tool-Landschaft, die wir mittlerweile so einsetzen. Da gibt es natürlich noch ein paar andere Sachen, die da eine Rolle spielen, aber es soll ja Enterprise SEO sein und wie überwache ich so ein richtiges large Scale Teil und eben auch nicht nur eine Domain, sondern ganz viele.

Tools als Teil des großen Ganzen

Aber Tools sind es nicht nur. Das Tool ist immer nur so gut wie die Leute, die die Anforderungen an das Tool stellen, oder die Auswertung aus dem Tool machen. Dementsprechend, nur mit Tools löst man das nicht, sondern man braucht halt auch, ja, die SEOs, die Menschen, die in diesem Projekt arbeiten, die wissen, wie diese Analytik oder dieses Tool dann zu nehmen ist und wie es auszuwerten ist. Und da haben wir auch viel gearbeitet, daran. Also, wir haben natürlich auf Seite des Kunden Leute, die echt Bock auf SEO haben, das ist nicht immer so. Da haben wir auf jeden Fall ganz großes Glück. Leute, die sich dafür interessieren, und Leute, die da auch was lernen wollen. Und was auch im Interesse des Kunden immer war, und was von den Kunden immer gefördert wurde, die haben immer soweit es ging immer alle Stakeholder immer gleich mit geholt. Sprich, wir mussten nicht über Business Engineers oder Projektmanager mit Entwicklern kommunizieren. Wir durften direkt mit Entwicklern sprechen. Die Entwickler durften, wenn sie konkrete Fragen hatten, auch zu uns kommen et cetera.

Wir können direkt mit den Märkten kommunizieren, also, es kommt öfters vor, dass eine lokale SEO-Agentur etwas behauptet, was aus unserer Sicht vielleicht ja anders ausgelegt werden könnte oder müsste. Und dann sprechen wir direkt mit dem Markt und sprechen teilweise dann in der Dreierkonstellation auch mit der lokalen SEO-Agentur und versuchen auch auf eine gemeinsame Basis zu kommen. Weil wir wollen da keine verbrannte Erde hinterlassen, wir wollen auch niemanden rausdrängen, wir wollen friendly citizen sein, sozusagen.

SEO-Impact und Projektkommunikation

Und wir kommen in dem ganzen großen Projekt eigentlich ja nur voran, wenn wir alle Lust darauf haben und wenn wir nicht anfangen, Finger zu zeigen oder zu blamen, oder sonst irgendwas zu tun, was keinem Spaß macht. Alle wissen, was die übergeordneten Ziele sind, das ist ganz wichtig. Also, selbst derjenige in Indien, der quasi jetzt einfach nur 404er fixt, soll eigentlich verstehen, warum er das tut. Also ohne Sinn keinen Bock, sag ich immer, ja. Man weiß auch, wer für was zuständig ist, es gibt eindeutige Ansprechpartner, die sich um einen gewissen Bereich kümmern. Die können natürlich Einblick in andere Bereiche haben, müssen sie aber nicht.

Die Kommunikation erfolgt schnell und ohne Overhead, also, wir nutzen in dem Fall jetzt Jira und Confluence, Jira, um vicious issues, Projektvorschläge, Ideen zu tracken. Confluence, um größere Teile abzulegen oder halt um Handbooks, Guidelines, und so weiter, zu schreiben, FAQs. Das ist für alle einsehbar, und die werden halt auch gepflegt und erweitert. Hinter jedem Teil steht auch die Frage nach dem SEO-Impact. Also, ich habe es dauernd mit Leuten zu tun, die sich so ein bisschen verzetteln.

Es ist zwar jetzt schön, wenn ich irgendwie das 300 Kilobyte Bild runterkriege und es klein mache, aber habe ich vorher nicht vielleicht wichtigere Dinge zu tun? Also, diese Frage muss man sich stellen, was ist nachher der Impact des Ganzen. Also, lass uns erstmal die großen Dinge angehen und schauen, ob wir dann vorankommen, und dann können wir ja mit den kleinen immer noch arbeiten, wenn die weg sind. Und diese ganzen Aufgaben und Ideen werden quasi als Jira-Ticket angelegt. Watcher kennt ihr ja, Jira, hoffe ich, also Ticketsystem angelegt, und in Jira haben wir alles noch getrennt nach verschiedenen Bereichen. Einmal technisches SEO, strategisches SEO, Content SEO, open, in Progress, done, et cetera, man kennt das. Und dann sieht man halt in den Swimlanes in Jira, wenn man sich dann den kompletten Overview gibt, was ist gerade in Progress, was ist vielleicht schon done, was ist on Hold, was ist noch gar nicht drin. So kann man sich sehr schnell einen Überblick verschaffen und sieht dann auch einen Progress. Und es ist dann auch etwas motivierend dann, wenn man merkt, es geht dann doch was voran, auch wenn man manchmal an Tagen das Gefühl hat, wir machen einen Schritt zurück. Was in so einem Projekt ganz normal ist. Da wird nie alles komplett reibungslos laufen, sondern da haben wir eher den Krebsgang, drei vor, eins zur Seite sozusagen.

Wir haben dann direkte Absprachen und regelmäßige Jour Fixes, wo wir diese Tickets durchgehen, wo wir neue Ideen besprechen, und so weiter. Wir haben keine Proxies dazwischen, also, was ich schon gesagt habe, Auftraggeber, ausführende Instanz, und alle, die quasi was damit zu tun haben, reden direkt miteinander. Und das macht es natürlich, ja, also, wer schon mal versucht hat, Javascript debuggen zu lassen und muss mit einem Projektmanager reden, weiß, wovon ich spreche. Das funktioniert nämlich nicht.

Wir machen interne Schulungen und Workshops auf Kundenseite, um die zu enablen, wir wollen auch denen SEO beibringen und dass die wissen, was sie davon haben, eben, warum wollen wir das so machen und warum so und nicht anders. Also, wir begründen auch Entscheidungen, es gibt bei uns nicht die Antwort, „ja, das ist so eine geheime SEO-Technik, das funktioniert, glaub mir“.

Sondern wenn ich eine SEO-Strategie oder eine SEO-Technik vorschlage, dann versuche ich, nein, ich versuche nicht, ich begründe, warum ich das so haben möchte, und ich erkläre dem, was der Impact ist. Und dann kann der Kunde entscheiden, ob ihm das das wert ist. Und das ist das Wichtige, eigentlich für mich. Also, so entsteht danach auch kein Chaos. Genau, und jetzt sind wir eigentlich schon durchgerauscht, hoffe ich mal.

Projektkennzahlen

Ein paar Sachen jetzt am Ende, die die Zahlen so ein bisschen ausdrücken. Also, an dem Projekt arbeiten etwa 40 Personen, sowohl auf Agenturseite als auch bei Kunde. Wir haben über 200 Jira-Tickets bisher erstellt, also, das Projekt läuft zirka ein Jahr, bisschen weniger. Wir haben unseren monatlichen Reportdienst, wo ihr vorher Auszüge gesehen habt, haben wir über 120 Empfänger. Und aktuell haben wir über 100.000 gefixte Fehler, also gefixte, ich nenne es jetzt mal technische SEO-Fehler. Wo ihr hier zum Beispiel seht, wie wir reingekommen sind. Wir haben erst im Herbst angefangen alle 160 Domains zu crawlen, vorher haben das quasi, so ein Ramp up war das, dementsprechend habe ich die Zahlen von Oktober genommen, wie wir uns verbessert haben. Und wo man dann auch sieht, wie daran gearbeitet wurde, weil wenn man so auf Tagesbasis draufguckt, man sieht nicht immer so gleich den Progress. Genau, aber hier als Beispiel über 10.000 404-Fehler, die wir fixen konnten.

Angela Meyer: Bezüglich Jira Tickets kam jetzt eine Frage rein: Sind Swimlanes das gleiche wie Kanban Boards in Jira?

Matthias Hotz: Genau, das ist nur, also, man kann sowas theoretisch in Trello machen, aber das würde ich nicht empfehlen. Weil Jira viel genauer ist, es ist ein Bug Ticket System. Das eignet sich auch für sowas, finde ich. Also, viele Dinge, wo viele Leute dran arbeiten müssen, wo viel zeitlicher Versatz drin ist, da eignet sich ein Jira mehr als ein Standard Kanban Board.

Ein Kanban Board ist für Ideen, Visualisierungen, das große Ganze vielleicht zu sehen. Aber wenn ich dann eben runter will und sagen, ihr müsst den Quelltext so fixen wie ich es haben will, dann ist so eine Kommunikation in Thread-Stil mit Screenshots, die ich natürlich da auch machen kann, aber wo ich dann auch Statis vergeben kann, on Hold und so weiter, also fixe Dinge, aus meiner Sicht etwas geeigneter. Dann funktioniert sowas nicht ohne exzellentes Team. Und hier sehen wir jetzt einen Teil des Teams, das sind jetzt die, die auf unserer Seite dran arbeiten. Allerdings jetzt nur die SEOs, also keine Content-Leute oder Projektmanager oder Business Engineers. Und wie es Christian schon angesprochen hat, hier seht ihr auch die Frauenquote. Aber das Team rockt das absolut. Der Ralph ist der Teamleiter und ohne diese acht Leute würde das mal so hinten und vorne gar nicht funktionieren. Und natürlich noch diverse mehr, wie ich schon gesagt habe, auch auf Kundenseite, Content-Leute, die im Back Office arbeiten, die machen uns alle das Leben leichter.

Das war es jetzt auch, das war, soweit bin ich jetzt durch. Ich habe keine Ahnung, wie viel Uhr es ist, weil ich nur einen Screen vor mir sehe. Allerdings stehen wir natürlich noch für Fragen, Anregungen, et cetera zur Verfügung. Ansonsten würde ich jetzt wieder zurück übergeben an die Angela.

Abschluss und offene Fragen

Angela Meyer: Gern jetzt Fragen stellen, wir haben noch kurz Zeit und unsere Experten haben ein offenes Ohr. Ansonsten gerne auch die Fragen im Nachgang an Paavo oder an Matts schicken, die beantworten natürlich auch gerne persönlich eure Fragen. Und tatsächlich, ein paar müssen schon zeitlich raus aus der Präsentation. Fanden es aber alle sehr gut.

Christian Paavo Spieker: Auf jeden Fall sehr effizient wie immer habt ihr es durchgezogen. Vielen Dank schon mal, war super.

Angela Meyer: Danke für die zahlreichen Tipps und Insights. Dann werden wir die Fragen gerne im Nachgang beantworten. Matts, du kannst gern einmal weiterklicken. Dann mache ich gerne auf unsere weiteren Webinare aufmerksam. Nächste Woche haben wir Alexander Graf zu Gast von Spryker. Gerne hier anmelden für nächsten Donnerstag, dann mit Alexander Graf. Oder eben auch weitere Themen behandeln wir. Dann vielen Dank euch zwei, vielen Dank Matts, beziehungsweise jetzt kam noch eine Frage rein. Ich schicke sie euch mal zu. Waren alle Länderseiten vom Inhalt identisch? Oder konnte jedes Land eigene Inhalte frei bestimmen?

Matthias Hotz: Also, die können nicht ganz frei bestimmen, die Inhaltsseiten sind auch nicht identisch, weil der Kunde seine komplette Produktrange ja nicht in jedes Land verkauft. Also, die kleinen Modelle gibt es in einigen Ländern nicht, ebenso wie bestimmte Sportwagen, et cetera. Das war schon mal ein Unterschied. Und dann sind natürlich auch Servicedienstleistungen, Ersatzteilversorgung und so weiter, eine andere Hausnummer. Und dementsprechend waren die Webseiten teilweise sehr stark unterschiedlich und sind sie auch nach wie vor. Also, die haben dort teilweise ihr eigenes Ding gedreht, die haben ihre eigenen Kampagnen gestartet. Sie müssen zwar grob im Master vom Markt her, also den globalen Master nehmen, wenn quasi ein Produkt neu kommt und die können die Eigenschaften nicht ändern. Aber wie sie das Marketing betreiben, ist schon zu einem gewissen Level denen ihre Sache.

„Wie wichtig sind die SERP-Snippets?“

Matthias Hotz: Aus unserer Sicht sind die schon wichtig, also Title Tag und Meta-Description in dem Fall, gehe ich mal davon aus. Also das ist ja immer, ich vergleiche das immer mit einem Schaufenster in einer Mall. Kein Mensch darf sein Schaufenster selber dekorieren, sondern jeder muss das nehmen, was die Mall sagt. Also, ich habe eine Überschrift und eine Unterüberschrift sozusagen, das ist das, was Google macht, und dementsprechend bleiben mir halt irgendwie nur ein paar Wörter, um den Menschen da reinzulocken. Dementsprechend ist ein gutes SERP-Snippet für die CTR aus meiner Sicht entscheidend. Wenn man jetzt also, bei einem klaren Keyword ist das kein Problem, wenn ich zu der Brand will, et cetera, dann ist das einfach. Aber wenn es eben Wettbewerber drumherum gibt, dann muss ich denen ja einen Grund liefern, warum die auf meine Seite kommen sollen und nicht vielleicht zu einem Wettbewerber oder zu einem größeren Shop, der ihnen viel mehr sagt als ich kleiner Shop in dem Fall. Dementsprechend monitoren wir das einerseits so, da haben wir sogar einen Custom Monitoring gebaut, dass wir die japanischen SERP-Snippets-. Weil die japanischen SERP-Snippets sind glaube ich pro Zeichen zwei Byte während das deutsche ein Byte ist, also der Buchstabe. Da ist quasi mehr Platz zur Verfügung. Das hat RYTE, mangels Japankunden wahrscheinlich, nicht abgedeckt. Da haben wir uns was eigenes gebaut, um eben die Länge und die Inhalte dieser Title Tags und Metadescriptions zu überwachen.

Christian Paavo Spieker: Aber SERP-Snippet, Stopp, ist ja mein Superthema. Muss ich da auch nochmal kurz was dazu sagen, weil die Frage ist super. Weil das ist ein sehr hochrelevantes Thema, weil die CTR ein absoluter Rankingfaktor ist, kann man an der Stelle schon sagen. Also das heißt, umso mehr Klicks ich auf das SERP bekomme, umso höher, stabiler wird mein Ranking. Google kann das also sehr gut auswerten. Das ist ein großer Faktor aus meiner Sicht, ich sage jetzt immer aus meiner Sicht, dann ist das einfacher. Und das SERP-Snippet ist ja sehr individuell, das heißt, normalerweise heißt das, in die Meta-Description setze ich das Hauptkeyword rein, dann nimmt er das Snippet drumherum mit dem Rahmen, dann holt er sich das Snippet. Wenn ich jetzt aber eine URL habe, ja, eine große Seite, die einfach für 1.200 Keywords rankt, ja, dann funktioniert das nicht mehr. Weil dann wird Google sich immer das Snip aus dem Text raus extrahieren. Also, man kriegt dann nicht mehr die Meta-Description, sondern immer genau den extrahierten Raum. Deswegen gibt es sogar teilweise Varianten, wo man die Meta-Description oben eigentlich per default relativ unoptimiert lässt. Das ist dann einfach nur die für das Hauptkeyword, und den Rest holt er sich dann aus dem Text. Und der Rankingfaktor ist definitiv hoch, weil das ist ja gleichzeitig die CTR, wie der Matts schon gesagt hat.

Das heißt also, umso besser euer Snippet ist, was dargestellt wird im Google SERP, umso höher ist die Klickrate, umso stabiler ist auch das Ranking, beziehungsweise ist es ein Rankingfaktor. Weil was wir schon sehen ist, deswegen haben wir das auch, ich glaube irgendwo sind dann Rankingfaktoren auf die Website geschrieben, die uns wichtig sind. Komm in die Top Ten, egal wie. Weil wenn du erstmal in der Top Ten bist mit deinem SERP, mit deinem Keyword, dann kriegst du natürlich die Klicks drauf. Und erst wenn du die Klicks kriegst, dann steigt dein Ranking auch. Ja, ist also ganz eine Korrelation. Und ihr kennt ja auch das Bouncing, nennen wir das immer. Also, das heißt, mal seid ihr jetzt in den Top Ten, dann haut das Ding wieder hinter auf 30, dann kommst du wieder nach vorne, das ist genau das. Da testet Google also im Endeffekt die CTR auf dieser SERP. Und für die CTR ist natürlich das Snippet sehr, sehr relevant. Deswegen, in einem Satz, in einem Wort: Das Snippet ist meiner Meinung nach hochrelevant.

„Wie händelt ihr die Erstellung von Titles und Descriptions? Läuft das zentral oder dezentral?“

Matthias Hotz: Für die wichtigen SEO-Seiten versuchen wir das zu übernehmen. Aber wir schulen, weil die Märkte ja so eigenständig sind und wir denen zum Beispiel auch nicht unbedingt eine Title Tag oder eine Meta-Description vorgeben müssen, dürfen, können, versuchen wir eben die Wichtigkeit herauszuarbeiten. Also, in vielen Kundenprojekten macht das unsere Redaktion. Wenn sie die Texte schreibt, kümmert sie sich auch schon darum. Aber in diesem Projekt ist das so, dass das mehr oder weniger so ein Mischmasch ist. Manche Märkte wollen eben Support, manche nicht, da passen wir uns an.

„Beziehen sich die Reportings nur auf die Suchmaschine Google?“

Matthias Hotz: Aktuell ja, das ist aber gerade auch im Ausbau. Sprich, natürlich spielt Google in China keine Rolle und in Russland weniger eine Rolle. Auch in anderen Ländern ist zwar Google theoretisch Marktführer, aber es gibt eben in, glaube in der Slowakei oder Tschechien eine Suche mit Naver oder so, nein, ist Korea, Suchmaschine, die einen höheren Anteil haben. Also, wir werden die Reportings zumindest für Russland und Japan-, Russland und China zukünftig auch um Yandex und Baidu erweitern. In Japan, wo ich gesagt habe, da hat Yahoo teilweise noch einen großen Anteil. Aber sind wir noch nicht ganz in trockenen Tüchern, ob wir da Yahoo mit dazunehmen.

„Arbeitet ihr für Baidu mit einer chinesischen Agentur, oder habt ihr das Know-How intern?“

Matthias Hotz: Also, was das technische SEO angeht, Baidu verhält sich da nicht groß anders wie jetzt Google für Content. Da müsste ich mal mit unseren Leuten sprechen. Aber ich gehe davon aus, dass wir erstmal mit einer chinesischen Agentur zusammenarbeiten werden, beziehungsweise mit native Speakern, weil sowas haben wir derzeit nicht so richtig leisten, denke ich.

„Nutzt ihr Hrfelang, und wie koordiniert und kontrolliert ihr die Hrfelang Edges oder Tags?“

Matthias Hotz: Ja, Hreflang stimmt. Aber jetzt wisst ihr alle, warum ich keine Haare habe. Hreflang ist kaputt, komplett kaputt auf den Webseiten leider. Da kann keiner was dafür, es wird auch nicht absichtlich kaputt gemacht. Man muss jetzt leider sagen, dass das AEM eine saubere Hreflang Implemention aus der Box nicht hergibt. Die muss dazu entwickelt werden. Wir sind derzeit dabei, eine komplette Hreflang Implemention zu machen, weltweit, die dann über die Sitemap abgebildet wird. Dadurch, dass es uns so schwerfällt, in AEM einzugreifen, also nicht, dass wir nicht AEM entwickeln können und so weiter, das Problem ist allerdings, die Struktur im AEM ist nicht stringent und-. Also, da wird halt so eine Ordnungsstruktur, da gibt es den Master, aber die Märkte können da unten auch eigene Ordner anlegen, oder Ordner umbenennen. Und dann gibt es keine Referenz mehr zum Master. Also, ich brauche, um über den CMF einen Hreflang, weil ich brauche ja die Verweise. Also machen wir das quasi über die XML-Sitemap und das hat uns ein bisschen Kopfzerbrechen bereitet, dem Kunden auch. Aber jetzt haben wir schon eine ganz gute Lösung dafür gefunden, und wir testen das aktuell in einigen Märkten und wir haben ein eigenes Validierungstool geschrieben. Ich weiß nicht, man kennt vielleicht das von DJane SEO aus Australien, oder das in Sistrix, wo zusätzlich halt zu dem Hreflang auch die Canonicals mit überprüft und robots-Zustand und das Ganze auch reziprok prüft. Das ist ja nachher das Wichtige, ich muss ja wissen, ob meine 160 Canonicals, sind ja teilweise, naja nicht, 120 Canonicals auch reziprok wieder auf die Quelle zurückverweisen. Das ist in der Mache.

Christian Paavo Spieker: Das ist der Riesenvorteil der reziproken Linkkreise, weil, wenn die unterbrochen sind, ist Google ja immer so schlau und schmeißt den ganzen Kreis weg. Also wird ja immer ignoriert, Gott sei Dank, weil, wenn ein Hreflang falsch gesetzt ist, könnte er eigentlich tödlich sein. Das verhält sich eigentlich wie so ein Canonical. Also, da könnte dann auch wirklich mal die Indizierung unterbrochen werden. Google ist da aber so schlau, wenn sie falsch sind, dann sagt Google, ignoriert er die Hreflangs, deswegen-

Matthias Hotz: Ja, wobei, das Problem ist dann natürlich, dass ich in ähnlich-sprachigen Ländern, was halt jetzt der Fall ist, wenn ich französischsprachig nehme, habe ich halt französische, also .fr-Suchergebnisse im französischsprachigen Kanada zum Beispiel in Google drin.

Christian Paavo Spieker: Der Klassiker: USA, England und so weiter. Weil es natürlich so Interpretationen der Sprache nimmt. Also, deswegen Hreflang, super hohe Priorität auch wieder drauf-.

Matthias Hotz: Man kann aber auch dazu sagen, ich habe noch keinen Kunden neu bekommen, wo Hreflang in Ordnung war. Das ist auch ganz witzig.

Über Google Zero Position

Matthias Hotz: Willst du, Christian, oder soll ich?

Christian Paavo Spieker: Matts.

Matthias Hotz: Also, ich bin da zwiegespalten. Google will natürlich, also erstens mal denke ich, dass die Zero Position hauptsächlich, die Idee erstmal dahinter war für mich persönlich Voice Search, weil diese Snippets halt sehr gut vorgelesen werden können, ja. Ansonsten ist es halt, wie bei so vielem mit Google, die wollen halt auch die User in der Suchmaschine behalten. Also, wenn es sich nicht vermeiden lässt, muss man halt Zero Position mitmachen. Aber ich bin jetzt kein Riesenfan davon, da es, ja, mir persönlich als Webseitenbetreiber erstmal User wegnimmt. Dementsprechend habe ich da so ein zwiegespaltenes Verhältnis. Aber das ist bei M. - ist ja auch eine GoogleErfindung - und mir auch nicht anders. Google kann natürlich mit seiner Suchmaschine machen, was es will. Aber wenn sie halt ihre Quellen quasi die User wegnehmen, ist das halt mehr als unfreundlich aus meiner Sicht.

Christian Paavo Spieker: Ja, aber die Answer Box oder die Zero Position ist ja aus Usersicht gedacht. Das kann man Google schon mal zugestehen, dass es aus Usersicht gedacht ist. Und natürlich gerade im Voice Search ist es bestimmt vielen schon aufgefallen, es wird jetzt auch die Web-, im Voice Search immer die Webseite genannt. Also, wenn man bei Google einen Voice Search kriegt, dann kriegt man auch, die Webseite wird dann vorgelesen, meine ich. Auf der Seite so und so wurde gefunden. Die haben da jetzt schon ein bisschen reagiert, ist ja schon ein bisschen länger her. Und mein Gott, das ist natürlich klar, ich kriege den User jetzt nicht mehr auf meine Seite. Also sprich, das kann man ja auch mal positiv sehen. Google sagt natürlich ganz klar, wenn ich die Information direkt in der Suchmaschine anzeigen kann, warum soll ich den User erst auf die Seite umlenken? Spart ihr euch auch Serverressourcen. Stimmt natürlich auch wieder, wenn es ein paar Millionen User sind. Habe ich natürlich TKP Werbevermehrung irgendwie auf der Seite, klar, verstehe ich schon, wie eine Zeitung oder ähnliches, dann sieht das Ganze wieder ganz anders aus. Da gibt es ganz viele Meinungen dazu. Aber im Endeffekt glaube ich auch, es zielt eigentlich primär auf die Sprachsuche ab. Weil die Sprachsuche ja nichts anderes ist als ein String, der quasi in die Suchmaschine eingegeben wird. Also, da wird das gesprochene Wort übersetzt in den String, das geht in die Google-Suche, und die Antwort kommt dann wieder, wird dann vorgelesen. Das ist ja die aktuelle, mal so ganz stark vereinfachte, die Voice Search. Und da spielt das natürlich auch immer eine große Rolle, wie werden die Fragen verstanden und, wie gesagt, da kann ich auch nicht auf die Webseite weiterleiten. Deswegen macht das natürlich schon Sinn.

Angela Meyer: Super, okay. Dann würde ich sagen, dass wir jetzt die Fragerunde beenden und alle weiteren Fragen dann gerne im Nachgang beantworten, persönlich von unseren Experten. Und danke euch zwei, Paavo und Matts.

Christian Paavo Spieker: Super, hat Spaß gemacht. Bis zum nächsten Mal aus dem Live und Home Office.

Angela Meyer: Danke und bis zum nächsten Mal. Ciao.

Christian Paavo Spieker: Ciao.

Matthias Hotz: Tschüss.