Default welcome message!

Lektion 1 - Robots.txt erstellen

Wenn ein Google Bot auf deine Seite zugreift, um sie zu analysieren und zu bewerten, landet er zunächst immer in der robot.txt, die ähnlich wie die Sitemap die Struktur deiner Website widerspiegelt. Um deine Seiten inklusive aller Unterseite zu bewerten, hat der Bot ein bestimmtes Kontingent zur Verfügung. Nun wäre es schade, wenn er auf „leeren“ Seiten landet, die keinen wertvollen Content bieten, zum Beispiel wenn er einfach eine Unterseite mit einem Produktfoto crawlt oder auf einer Seite landet, auf der eine 404-Meldung ausgegeben wird, weil das entsprechende Produkt ggf. zurzeit nicht verfügbar ist. Du kannst nun über die robot.txt Datei den Bot anweisen, bestimmte Seiten, nämlich genau die eben beschriebenen, zu ignorieren, sodass er wirklich nur auf den wirklich relevanten Seiten landet. Wie das genau funktioniert, erfährst du in diesem Video.

https://affiliatetheme.io/wie-man-google-bots-die-arbeit-erleichtert-und-dadurch-besser-rankt/

Kursmenü