Tel.: 0731 - 145 323 44 03212 - 34 34 35 4 info@maximusweb.org

Wichtige SEO Informationen

SEO News:  Robots.txt zum Sperren von Internetseiten ungeeignet

10.10.2009: Der Google Guy Matt Cutts hat ein neues Video zum Thema robots.txt veröffentlicht. Darin wird erklärt, warum es trotz Sperrung in der robots.txt dazu kommen kann, dass die gesperrte Seite in den Suchergebnissen auftauchen könnte.

Sie sperren zum Beispiel das Impressum Ihrer Webseite. Ein Geschäftspartner verlinkt von seiner Seite aus auf Ihr Impressum. Der Googlebot findet den Link und verfolgt Ihn, OHNE vorher die robots.txt auszulesen und schon erscheint Ihr Impressum im Index. Wenn Sie eine Unterseite also ganz sicher sperren möchten, verwenden Sie besser ein Meta Tag.

    meta name="robots" content="noindex"