Laden Sie alle Bilder aus einem Verzeichnis einer Webseite
Brauche ich, um alle Bilder von einer website, die alle in einen Ordner. Wie zum Beispiel, (site.com/images/.*). Ist das möglich? Wenn ja, was ist der beste Weg?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Haben Sie einen Blick auf HTTrack software. Kann es download ganze Websites. Geben Sie die website-Adresse
site.com/images/
und Sie werden download alles in diesem Verzeichnis. (wenn das Verzeichnis ist der Zugriff nicht eingeschränkt durch Besitzer)Hast du FTP Zugang?
Hast du shell-Zugang?
Mit Linux ist es Recht einfach. Nicht sicher über windows.
Edit: Gerade gefunden wget für windows.
Edit 2: ich sah nur das PHP-tag, um zu erstellen ein PHP-script, das die downloads alle Bilder in einem Rutsch, Sie müssen erstellen Sie eine zip - (oder gleichwertig) - Archiv und senden Sie dieses mit dem richtigen Header. Hier ist wie zip ein Ordner in php, es wäre nicht schwer zu extrahieren nur die Bilder in diesem Ordner, ändern Sie einfach den code gegeben, etwas zu sagen wie:
wenn die Website ermöglicht die Indizierung, alles, was Sie tun müssen, ist
wget -r --no-parent http://site.com/images/
Hängt davon ab, ob die Bilder Verzeichnis ermöglicht das auflisten des Inhalts. Wenn es klappt, Super, ansonsten würden Sie brauchen, um spider eine website, um alle zu finden die Bild-Referenz auf das Verzeichnis.
In jedem Fall, nehmen Sie einen Blick auf wget.
Wenn Sie möchten, um zu sehen, die Bilder einer web-Seite verwendet wird: wenn Sie Chrome verwenden, können Sie einfach drücken Sie die Taste F-12 (oder Developer Tools im Menü) und auf die Registerkarte "Ressourcen", es gibt einen Baum auf der linken, und dann unter den Rahmen, sehen Sie die Bilder-Ordner, dann sehen Sie alle Bilder der Seite verwendet, aufgeführt in dort.