Was ist der beste Weg, um mit robots.txt in Express umzugehen?
Zur Zeit arbeite ich an einer Anwendung gebaut, mit Express - (Node.js) und ich will wissen, was ist der Klügste Weg, um die Handhabung der verschiedenen robots.txt für verschiedene Umgebungen (Entwicklung, Produktion).
Dies ist, was ich jetzt haben, aber ich bin nicht überzeugt von der Lösung, ich denke, es ist dreckig:
app.get '/robots.txt', (req, res) ->
res.set 'Content-Type', 'text/plain'
if app.settings.env == 'production'
res.send 'User-agent: *\nDisallow: /signin\nDisallow: /signup\nDisallow: /signout\nSitemap: /sitemap.xml'
else
res.send 'User-agent: *\nDisallow: /'
(NB: es ist CoffeeScript)
Sollte es einen besseren Weg. Wie würdest du es tun?
Danke.
InformationsquelleAutor der Frage Vinch | 2013-02-27
Du musst angemeldet sein, um einen Kommentar abzugeben.
Verwendung einer middleware-Funktion. Auf diese Weise die robots.txt behandelt werden vor jeder Sitzung, cookieParser, etc:
Mit express 4
app.get
jetzt gehandhabt werden soll, in der Reihenfolge angezeigt, sodass Sie können nur verwenden:InformationsquelleAutor der Antwort SystemParadox
Sieht aus wie ein ok Weg.
Alternative, wenn Sie möchten, um in der Lage sein, zu Bearbeiten
robots.txt
als reguläre Datei, und evtl. noch andere Dateien, die Sie wollen nur in der Produktion oder Entwicklung-Modus wäre die Verwendung von 2 getrennten Verzeichnisse und aktivieren eine oder andere beim Start.dann fügen Sie 2 Verzeichnisse, die mit jeder version von robots.txt.
Und Sie können halten das hinzufügen von mehr Dateien in Verzeichnis-und halten Sie Ihren code einfacher.
(sorry, das ist javascript, nicht coffeescript)
InformationsquelleAutor der Antwort Pascal Belloncle
Erstellen
robots.txt
mit folgendem Inhalt :hinzufügen
public/
Verzeichnis.Ihre
robots.txt
verfügbar sein wird, um einen crawlerhttp://yoursite.com/robots.txt
InformationsquelleAutor der Antwort atul
Für die Wahl der robots.txt je nach Umgebung mit einer middleware-Weg:
InformationsquelleAutor der Antwort fernandopasik