Ja, diese Möglichkeit besteht und erweist sich als praktisch, wenn es um veraltete Links oder nicht nach neuen SEO-Kriterien aufbereitete Unterseiten Ihrer Homepage geht. Wir empfehlen Ihnen für die Vermeidung des Crawlings folgende Möglichkeiten
- Sperren Sie den Zugriff auf einzelne Dateien oder Verzeichnisse durch die Konfiguration von robots.txt.
- Zur Vermeidung der Fehlermeldung „Datei nicht gefunden“ legen Sie eine Leerdatei als robots.txtan.
- Zur Unterbindung der Linkverfolgung auf Ihrer Seite setzen Sie den Meta-Tag nofollow ein.
- Um einen bestimmten Link zu sperren, bietet sich das Attribut rel=“nofollow“ an.
Nur bei fehlerfreier Programmierung halten Sie die Richtlinien von Google ein und nutzen Ihre Ressourcen umfassend. Unser Team von ONMA scout berät Sie über die Möglichkeiten, bei Google top zu ranken und Ihre Website so zu optimieren, dass der Googlebot und Ihre Zielgruppe mit dem Ergebnis zufrieden ist. Als Full Service Agentur sind wir Ihr Ansprechpartner für SEO, SEA und Ihre marktführende Position in Google Suchergebnissen.