Wie stelle ich fest, ob eine Webseite mit Shell-Skripten existiert?
Ich versuche, ein Programm zum konvertieren einer Reihe von manga-scans in eine pdf-Datei, und ich will nicht zu haben, um zu versuchen, laden Sie das Bild, um zu bestimmen, wenn ich die richtige url. Gibt es eine shell-scripting-Befehl, den ich verwenden können, um einfach überprüfen, ob eine web-Seite existiert?
InformationsquelleAutor der Frage Branden | 2010-05-27
Du musst angemeldet sein, um einen Kommentar abzugeben.
Unter einem *NIX, Sie können
curl
ein einfachesHEAD
Anfrage (HEAD
bittet nur den Header, nicht die Seite Körper):Dann können Sie nur die erste Zeile enthält den HTTP-status-code (200 OK, 404 Nicht Gefunden, usw.):
Und prüfen Sie dann, wenn Sie haben eine anständige Antwort (status code 200) oder 3**):
Dieser Ausgabe wird die erste Zeile, wenn der status-code ist in Ordnung, oder nichts, wenn es nicht so ist. Sie können auch über die Pipeline, die nach /dev/null um keine Ausgabe und Verwendung
$?
um zu bestimmen, ob es geklappt hat oder nicht:BEARBEITEN
-s
sagt einfachcurl
keine "progress bar".InformationsquelleAutor der Antwort zneak
Verwenden cURL erhalten den status-code und überprüfen Sie die gewünschten Werte ein.
InformationsquelleAutor der Antwort Sithsu
Zunächst sicherstellen, dass es keine Genehmigung ausstellen.Wenn keine Autorisierung Erforderlich ist , geben Sie den Benutzernamen und das Passwort .Erstellen Sie ein shell-Skript-Datei (checkURL.sh ) und fügen Sie den untenstehenden code.
Hoffe, dies wird Ihnen helfen.
Seine Arbeit für mich im Nexus und andere Repository.
InformationsquelleAutor der Antwort Java Developers Guide
Können Sie immer verwenden Sie einfach
wget
; ich tun, da der code einfacher ist.Mithilfe der
-O-
option mitwget
bedeutet, dass Sie versuchen wird, um die Ausgabe der Inhalte auf der Seite, aber nur, wenn es vorhanden ist. Also, wenn es gibt keine Ausgabe, dann wird die Seite nicht existiert. Die2>/dev/null
ist nur zum senden der Ausgabe (falls vorhanden) in den Papierkorb.Ich weiß es ist überfällig, aber ich hoffe, das hilft.
InformationsquelleAutor der Antwort Alek
wget oder cURL wird die Arbeit machen. Hier sehen wget oder LOCKE für details und download. Liefern die URL für diese command-line-tools und überprüfen Sie die Antwort.
InformationsquelleAutor der Antwort Jochem Schulenklopper