Facebook und Crawl-delay in Robots.txt?

Tut Facebook das webcrawling bots Achtung der Crawl-delay: Richtlinie in robots.txt Dateien?

  • Ich war mir nicht bewusst, dass facebook bots hatte... interessant!
  • facebookexternalhit/* wo * ist die Versionsnummer. Siehe: facebook.com/externalhit_uatext.php und developers.facebook.com/docs/best-practices/...
  • Nicht Facebook nur kriechen einen Artikel einmal, wenn es Hinzugefügt? Ich erinnere mich an mehrere Fälle, in denen musste man explizit Facebook zu kriechen ein Element wieder, um es zu aktualisieren, es zu kopieren.
  • Das ist nicht Crawl-delay. Crawl-delay verwandt ist, wie schnell ein web-crawler-Besuche urls für eine Website. Also, wenn Sie haben 100 urls, sagen wir, auf Ihrer Website, Crawl delay, dass alle diese urls nicht bekommen, seine gleichzeitig. Vielmehr erhalten Sie Treffer, in einem Intervall von dem, was der crawl-delay gibt. Also für 100 Seiten bei 15 Sekunden zwischen, wird es eine 25 minütige "rest" - Zeit. Die Absicht ist es, nicht erdrücken, eine Website.
InformationsquelleAutor artlung | 2011-10-10
Schreibe einen Kommentar