www.linkedin.com wurde komplett aus dem Google Index entfernt
Wer gestern mit der Site-Abfrage und der Domain www.linkedin.com herumgespielt hat, konnte und wollte seinen Augen nicht trauen: alle Inhalte von www.linkedin.com waren komplett aus dem Index verschwunden. (Photo by Markus Spiske from Pexels)

Suchmaschinenoptimierung zeigt nicht selten wahre Stilblüten der Technik. Gestern hatte sich das Businessnetzwerk LinkedIn für kurze Zeit selber mit der www.-Domain komplett selber aus dem Index geworfen.

www.linkedin.com komplett deindexiert

Die site:-Abfrage für die Domain www.linkedin.com bringt keine Ergebnisse mehr.

LinkedIn Sichtbarkeit

Der geneigte Suchmaschinenoptimierer geht dabei (und vor allem auf Grund der Firmengröße) natürlich erst einmal davon aus, dass das ein geplanter Move war. Bei der Betrachtung des Quellcodes und der Sichtbarkeitswerte kamen dann aber doch sehr schnell Zweifel an der Sinnhaftigkeit der Deindexierung auf. Alleine in den USA hat www.linkedin.com eine Sichtbarkeit von fast 200 nach SISTRIX und im Quelltext war kein NOINDEX oder ähnliches zu finden.

gewollte Deindexierung oder SEO-Unfall?

Im Laufe des Tages wurde relativ schnell klar, dass hier wohl ein kapitaler Fehler passiert ist und die Deindexierung mit Sicherheit nicht gewollt war. Welcher SEO würde eine Sichtbarkeit von 200 riskieren ohne dabei ein entsprechendes Weiterleitungskonzept und Index-Steuerung vorzunehmen?

Twitter hilft – immer

Wer John Müller auf Twitter nicht folgt, ist selbst schuld! Mit seiner lockeren (wenn auch nicht immer ganz transparenten) Art, hat er den Vorfall dann auch direkt kommentiert und Kollege Barry Schwarz hat gekonnt geantwortet. Aber seht selber:

URL-Removal Tool?

Man kann nur spekulieren, aber laut dem Tweet von John Müller scheint da jemand bei linkedin.com mit dem URL-Removal-Tool in der GSC gespielt zu haben. Und da Google auch nur eine Maschine ist, wurde die Anweisung prompt befolgt und alle Inhalte wurden aus dem Index verbannt.

Oder doch robots.txt?

Ein Twitter-User hatte vermutet, dass die Deindexierung an einer fehlerhaften robots.txt liegen könnte, weil dort scheinbar “user-agent: *, disallow: /” zu sehen war. Aktuell ist das aber nicht reproduzierbar und im Übrigen hätte das auch nicht zu einer kompletten Deindexierung von hunderten Millionen URLs geführt. Diese Directive in der robots.txt besagt ja nur, dass der Crawler die Seiten nicht besuchen/crawlen darf. Nicht mehr und nicht weniger. Crawl Management != Index Management.

Zurück auf Los

Der Fehler wurde natürlich sehr schnell bemerkt und LinkedIn hat auch direkt reagiert. Die Domain wurde wieder zur Indexierung frei gegeben und alle URLs waren auch sofort wieder im Google-Index, denn Google löscht nicht einfach so, sondern behält die Daten 180 Tage, d.h. die Linked-Ergbnisse wurden nur ausgeblendet. Das hat zur Folge, dass alle 238 Millionen URLs auch direkt wieder sichtbar wurden, nachdem der Fehler behoben wurde.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

jetzt den KLICK.NEWS Newsletter abonnieren

Und wir halten Dich immer auf dem aktuellen Stand!

Diese Beiträge könnten Dich auch interessieren:

Google Chrome: URLs werden in Zukunft gekürzt

Google startet mal wieder einen Angriff auf die URL-Leiste. Der Browser Chrome 85 versteckt vollständige URLs – nur der Domain-Name bleibt bestehen. Was genau die Intention von Google ist bleibt offen. Nach eigenen Aussagen seien ungekürzte URLs für viele User “zu kompliziert”.

Google Core Update Dezember 2020: Gewinner & Verlierer

Am 03. Dezember war es so weit: ein neues Google Core Update wurde ausgerollt! Es lassen sich bereits Auswirkungen der jüngsten Aktualisierungen beobachten. Lily Ray von Path interactive hat nun einige Daten für die USA analysiert und zusammengetragen.

Google Rankingfaktoren 2021 – diesen Fokus müssen Unternehmen jetzt setzen

Nichts ist so stetig wie die Veränderung. Wie verändern die Core Web Vitals und E-A-T die Rankings bei Google? Und was wird aus AMP, wenn ab 2021 auch Nicht-AMP-Seiten als Top Stories bei Google angezeigt werden? SEO-Experte Aleh Barysevich hat bei searchenginewatch.com seine Einschätzung dazu veröffentlicht. Wir fassen zusammen, packen unsere Expertise dazu und geben einen Ausblick auf 2021. Dem CLS – Cumulative Layout Shift (einer der 3 Core Web Vitals) – und E-A-T schenken wir dabei besondere Beachtung.

Externe Trafficschätzung ist jetzt auch mit SISTRIX möglich

Das SEO-Monitoring Tool SISTRX erweitert wieder einmal die Funktionen ihrer Toolbox. Neuestes Beta-Features ist die Trafficschätzung und Klickverteilung. Für eine externe Analyse von Wettbewerbern bietet die Toolbox nun noch mehr hilfreiche Daten für Webmaster und SEOs.