Suchmaschinenoptimierung

Die vier kritischsten SEO-Fehler überwachen

Website Monitoring Magazin

Zuallererst: Ja, OnPage-Optimierung ist unheimlich wichtig. Das richtige Setzen von Überschriften und Meta-Tags wirkt sich stark auf das Ranking in Google und Co. aus. Wir wollen in diesem Artikel aber noch einen Schritt zurückgehen. Fehler, die Google davon abhalten eine Webseite überhaupt erst zu indizieren.

Fehler in der robots.txt

Fast jede Webseite hat eine robots.txt. Dort kann man für Suchmaschinen unter anderem Meta-Informationen hinterlegen, die ihnen dabei helfen die Seite sauber zu durchsuchen. Genauso hilfreich wie dies ist, kann es aber auch gefährlich sein. Fehler hier können sich auf die gesamte Webseite auswirken. Ein kleines:

User-agent: *
Disallow: /

würde zum Beispiel alle Seiten aus Google rauswerfen. Kann euch nicht passieren? In den vielen Jahren, in denen wir Monitoring anbieten, haben wir das schon oft gehört. Leider haben wir auch oft gehört, dass es doch passiert ist. Am häufigsten war dies der Fall, wenn eine Stage-Umgebung öffentlich zur Verfügung gestellt wurde. Diese soll natürlich niemals in den Google Index. Also schnell die robots.txt angepasst. Und sicherheitshalber comittet. Ihr wisst schon, worauf wir hinaus wollen. Die robots.txt von Stage hat es irgendwie auf Live geschafft und es ist keinem aufgefallen.

koality.io überprüft kontinuierlich nach solchen Anomalien in der robots.txt und dank der Google Lighthouse SEO Checks werden hier auch Header und Co. gecheckt.

Kaputte sitemap.xml

Früher haben Suchmaschinen ihrem Namen alle Ehre gemacht. Sie haben die Webseite durchsucht und zwar durch Crawling. Wenn man eine Unterseite nicht über irgendeinen Pfad durch das Projekt erreichen kann, konnte sie auch nicht indiziert werden. Heute unterstützt man durch eine sitemap.xml. In dieser (oder in mehreren) Datei(en) findet man dann eine Liste mit allen URLs, die man so im Angebot hat. Kombiniert mit dem Datum der letzten Änderung.

Für Google und Co. vereinfacht diese Datei das Untersuchen der Webseite ungemein. Es müssen nur noch die Seiten neu indiziert werden, die auch tatsächlich geändert wurden. Das geht schnell und man kann davon ausgehen, dass neue Inhalte somit viel schneller den Weg in den Index finden.

Schön, dass du unser Magazin liest. Was aber noch schöner wäre, ist, wenn du unseren Service einmal ausprobierst. koality.io bietet umfangreiches Website Monitoring speziell für Webprojekte. Erreichbarkeit, Performance, SEO, Sicherheit, Inhalt und Technik.

Ich möchte koality.io kostenlos ausprobieren

Wenn die sitemap.xml, die einer strikten Struktur folgen muss, kaputt ist, so muss die Suchmaschine wieder beginnen den alten Weg zu gehen. Also viel langsamer im Index bei neuen Dokumenten und auch bei Änderungen in bestehenden.

In koality.io muss man die aktuelle XML-Sitemap hinterlegen, ab da wird jede Stunde einmal kontrolliert, ob sie dem Google-Standard entspricht und ob überhaupt Inhalte in ihr zu finden sind. So wird man sehr zeitnah informiert, wenn Google potenzielle Probleme bekommen könnte.

Nicht optimiert für Mobile

Der meiste Traffic des Internets wird durch mobile Endgeräte erzeugt. Das weiß auch Google und indiziert die mobile Version der Webseite und nicht die, die ihr über euren PC oder Laptop seht. Das ergibt Sinn. Dummerweise bauen wir Agenturen und Entwickler die Seiten auf unseren MacBooks, Linux- und Windows-Rechnern. Kann also mal passieren, dass ein Release nicht immer im Detail auf Mobile optimiert ist. Sollte es aber natürlich nicht.

Google bietet glücklicherweise einen Service, mit dem man seine Webseite auf "mobile friendliness" überprüfen kann. Hier kann man einfach die gewünschte URL eintragen und sie dann mit den Augen von Google sehen bzw. schon die ersten Hinweise bekommen, wenn ggf. Schriften zu klein oder Knöpfe für den normalen Finger auf dem Smartphone kaum klickbar sind.

Genau diesen Service nutzt auch koality.io, um die hinterlegte Webseite automatisiert und kontinuierlich zu überprüfen. Sollte also einmal ein Release gegen die mobilen Richtlinien verstoßen, wird das Website Monitoring Tool informieren.

Zu viel JavaScript

Jap, Google kann mittlerweile JavaScript. Zumindest manchmal. Wir können also in naher Zukunft unsere Marketing-Webseiten auch in unseren geliebten JavaScript-Frameworks, wie Vue, React oder Angular, verwenden. Leider ist es noch nicht ganz so weit. Ist ja auch klar. Wenn wir eine Webseite mit cUrl aufrufen, dann bekommen wir nach 100-500ms unsere Antworten. Das ist schnell. Wenn sie erst durch den Browser gejagt wird, dann alle JavaScripts ausgeführt (intern + extern) und die Bilder geladen werden, dann dauert das eher 5-7 Sekunden. Das ist langsam. Wir haben also einen Faktor von 50 zwischen der Dauer. Ab und zu mal alles Rendern wird also machbar sein, komplett auf JavaScript umzustellen ist vielleicht nicht so eine gute Idee.

Wenn man die Seite trotzdem mit JavaScript bauen will (so wie wir diese hier), sollte man darauf achten, dass man das SSR (Server side rendering) anschaltet. Dann sollte man auf der sicheren Seite sein.

Wer trotzdem stark auf JavaScript setzt, dem kann koality.io helfen. Wir scannen einmal die Stunde alle wichtigen Seitentypen auf JavaScript-Fehler. Dabei wird die Seite in einem Chrome Browser geladen, gewartet bis alles JS ausgeführt wurde und dann geprüft, ob Fehler aufgetreten sind.

Falls euch noch kritische Fehler im SEO-Bereich einfallen, die koality.io unbedingt erkennen sollte, schickt sie uns gerne.