Tag: urllib2
urllib2 ist eine vordefinierte python-Modul 2, der definiert, Funktionen und Klassen zu helfen, mit URL-Aktionen. Es ist vor allem unbefriedigend, und die ersetzt worden ist in python 3 und third-party-Bibliotheken.
2
Antworten
Habe ich eine django-Datei Modell, das Modelle.FileField field und eine form, die verwendet wird, um Dateien auf den server hochzuladen: class UploadFile(model.Model): filename = models.FileField(upload_to='uploads') description = models.CharField(max_length=38, blank=True) class UploadFileForm(ModelForm): class Meta: model = UploadFile fields
3
Antworten
Laut die urllib2 Dokumentation, Weil die Standard-Handler mit Weiterleitungen umgehen (codes in der 300-Reihe), und codes, die in der 100-299 Angebot zeigen Erfolg, Sie werden in der Regel nur siehe Fehler-codes in der 400-599 Bereich. Und noch
2
Antworten
Scheint, dass urllib2 sendet HTTP/1.1-Anfrage standardmäßig? Gibt es einen bestimmten Grund für die Verwendung von HTTP 1.0 über HTTP 1.1? Ich bin auch neugierig warum die Notwendigkeit für HTTP 1.0 Ich Schreibe ein test-Skript für eine blöde
1
Antworten
Habe ich nach einer Möglichkeit gesucht, den download eines Bildes von einer URL, preform einige Bildmanipulationen (resize) Aktionen auf Sie, und speichern Sie es in einer django ImageField. Mit den beiden großen Beiträge (unten verlinkt), habe ich
3
Antworten
Ich bin mit python 2.7 und ich würde gerne den Inhalt einer Webseite, die erfordert, dass sslv3. Derzeit, wenn ich versuche auf die Seite zuzugreifen, bekomme ich die Fehlermeldung SSL23_GET_SERVER_HELLO, und einige der Suche im Internet brachte
3
Antworten
Tut urllib2 in Python 2.6.1 Unterstützung-proxy über https? Habe ich Folgendes gefunden bei http://www.voidspace.org.uk/python/articles/urllib2.shtml: HINWEIS Derzeit urllib2 nicht unterstützt der Abruf von https-Standorte durch einen proxy. Dies kann ein problem sein. Ich versuche zu automatisieren Anmeldung in
3
Antworten
Ich habe eine html-Datei, die ich abrufen nur der text ich würde gerne drucken einer einzelnen Zeile jetzt bin ich print for line in newName.body(text=True): print line dieser gibt mir alles, was in den Körper was ich
7
Antworten
Gibt es eine einfache Möglichkeit zur cache-Sachen, wenn mit urllib2, dass ich über-Blick, oder muss ich die Rolle meines eigenen? InformationsquelleAutor Yuvi | 2008-09-29
1
Antworten
Hallo, ich versuche die Verwendung von python für den Zugriff auf eine API-URL mit urllib2: import urllib2 url = 'https://XXXXXXXXXX.com/' username = 'XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX' password = 'XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX' passman = urllib2.HTTPPasswordMgrWithDefaultRealm() passman.add_password(None, url, username, password) authhandler = urllib2.HTTPBasicAuthHandler(passman) opener
3
Antworten
Um Dateien herunter zu laden, ich bin die Schaffung einer urlopen Objekt (urllib2 Klasse) und Lesen Sie es in Stücke. Möchte ich die Verbindung zum server mehrfach an und laden Sie die Datei in sechs verschiedenen sessions.
1
Antworten
Ich habe ein Skript, das einige Anfragen mit urllib2. Ich den trick vorgeschlagen anderswo auf Stack Overflow zu binden, eine andere ip zu der Anwendung, wo meine mein Rechner hat zwei ip-Adressen (ip A und IP B).
2
Antworten
Ich versuche nur, das abrufen einer web-Seite, aber irgendwie eine fremde Figur ist eingebettet in die HTML-Datei. Dieses Zeichen ist nicht sichtbar, wenn ich "View Source". isbn = 9780141187983 url = "http://search.barnesandnoble.com/booksearch/isbninquiry.asp?ean=%s" % isbn opener = urllib2.build_opener()
1
Antworten
Ich habe beim durchstöbern einige Beiträge hier, aber ich habe gerade nicht bekommen kann meinen Kopf herum batch-herunterladen von Bildern und text aus einer bestimmten URL mit Python. import urllib,urllib2 import urlparse from BeautifulSoup import BeautifulSoup import
4
Antworten
Ich habe einen client, der eine Verbindung zu einem HTTP-stream und speichert die text-Daten, die es verbraucht. Schicke ich den streaming-server eine HTTP-GET-Anfrage,... Der server antwortet und kontinuierlich Daten veröffentlicht... Es wird entweder veröffentlichen Sie text oder
6
Antworten
Ich möchte viele Seiten von einer website, wie curl "http://farmsubsidy.org/DE/browse?page=[0000-3603]" -o "de.#1" aber die Seiten' Daten in python, nicht Dateien auf der Festplatte. Kann jemand bitte posten pycurl code um dies zu tun, oder schnell urllib2 (nicht
2
Antworten
Bin ich mit der rest-api zum senden von push-Benachrichtigungen. Docs sind Sie hier. Ich bin mit der Pyramide und Einplanung dieser push-Benachrichtigungen mit Sellerie. Dies ist mein code-Beispiel: result = urllib2.urlopen(urlRequest, headers={ "X-Parse-Application-Id": settings["parse.application.id"], "X-Parse-REST-API-Key": settings["parse.restapi.key"], "Content-Type":
2
Antworten
Ich bin auf der Suche nach download einer Datei von einem http-url zu einer lokalen Datei. Die Datei ist groß genug, dass ich möchte, um es herunterzuladen, und speichern Sie es Brocken eher als read() und write()
2
Antworten
Habe ich eine einfache internet-checker laufen, aber es kommt gelegentlich eine Fehlermeldung zurück, was ich kann nicht scheinen zu umgehen... Hier ist die Funktion: def internet_on(): try: urllib2.urlopen("http://google.co.uk/", timeout = 10) return True except urllib2.URLError as e:
1
Antworten
Gibt es viele gute Ressourcen, die bereits auf stackoverflow, aber ich bin immer noch ein Thema. Ich habe besucht diese Quellen: gewusst wie: senden von Abfrage zu .aspx-Seite in python Die Einreichung einer post-Anforderung an eine aspx-Seite
2
Antworten
Wie kann man die Inhalte der geschützten Seiten mit Python und urllib2? Muss ich einen Benutzernamen angeben und ein Kennwort für die Seiten, die ich versuche abrufen.. z.B. content = urllib2.urlopen(URL, username, password).read() Ich weiß, dass ist
1
Antworten
Ich versuche, html-Seite, die diakritischen Zeichen (í,č...). Das problem ist, dass urllib2.quote scheint nicht zu arbeiten, als ich erwartet hatte. Soweit ich bin besorgt, Zitat sollte konvertieren url mit diakritischen Zeichen, um die richtige url. Hier ist
4
Antworten
In python, wie würde ich mich über eine http-Anforderung, aber nicht auf eine Antwort warten. Ich kümmern sich nicht darum, immer alle Daten zurück, ich brauche nur server registrieren, eine Seite anzufordern. Jetzt benutze ich diesen code:
2
Antworten
Ich versuche, laden Sie einige Daten von einer website auf Basis von Python. Wenn Sie kopieren Sie einfach und fügen Sie die url, es zeigt nichts, es sei denn, Sie füllen die login-Informationen. Ich habe den login-Namen
4
Antworten
Mit httplib2 und urllib2, ich bin versucht zu Holen, Seiten von dieser url, aber alle von Ihnen hat nicht funktioniert und endete mit dieser Ausnahme. content = conn.request(uri="http://www.zdnet.co.kr/news/news_print.asp?artice_id=20110727092902") Traceback (most recent call last): File "<stdin>", line 1,
3
Antworten
Ich würde gerne eine POST-Anfrage zum hochladen einer Datei auf einen web-service (und als Antwort bekommen) mit python. Zum Beispiel, ich kann die folgende POST-Anfrage mit curl: curl -F "
[email protected]" -F output=json http://jigsaw.w3.org/css-validator/validator Wie kann ich die
4
Antworten
Ich bin ein Anfänger mit python. Ich versuche zum ausführen der curl-Befehl im Python-Skript. Wenn ich es im terminal sieht es so aus: curl -k -H "Authorization: Bearer xxxxxxxxxxxxxxxx" -H "hawkular-tenant: test" -X GET https://www.example.com/test | python
1
Antworten
Ich kann die html-Seite, über das urllib, und verwenden Sie BeautifulSoup Parsen der html-Seite, und es sieht so aus, dass ich zu generieren, die Datei zum Lesen von BeautifulSoup. import urllib sock = urllib.urlopen("http://SOMEWHERE") htmlSource = sock.read()
3
Antworten
Ich bin nicht in der Lage zu öffnen, eine bestimmte url mit urllib2. Gleiche Verfahren funktioniert auch mit anderen Webseiten, wie "http://www.google.com" aber nicht diese Seite (was auch gut zeigt in der browser). mein simpler code: from
5
Antworten
Sie nicht erwähnt, dass diese in der python-Dokumentation. Und seit kurzem Teste ich eine website einfach erfrischend die Website mit urllib2.urlopen() zum extrahieren bestimmter Inhalte, merke ich manchmal, wenn ich ein update der Website urllib2.urlopen() scheint nicht
1
Antworten
Also Lerne ich Python langsam, und ich versuche, um eine einfache Funktion, die zieht die Daten aus den high-scores-Seite ein online-Spiel. Das ist jemand anderes den code, den ich schrieb in einer Funktion (was das problem sein
3
Antworten
Ich versuche zum herunterladen einer Seite geschützt mit basic-Authentifizierung mit urllib2. Ich bin mit python 2.7, aber ich habe auch versucht es auf einem anderen computer mit python 2.5 und hat die exakt gleiche Verhalten. Ich folgte
1
Antworten
Ich versuche, ein Skript zum einloggen in mein "check-Karte" balance " service für meine Universität mit python. Im Grunde ist es ein web-Formular, wo wir füllen unsere PIN und PASS und es zeigt uns, wie viel $$$
1
Antworten
Ich versuche, mich zu kratzen, Daten aus der öffentlichen Website asx.com.au Die Seite http://www.asx.com.au/asx/research/company.do#!/ACB/details enthält eine div mit der Klasse "view-content", die die Informationen, die ich brauche: Aber wenn ich versuchen, diese Seite über Python ' s
1
Antworten
Ich bin zu lernen, um web-Schaber und wollen kratzen TripAdvisor für ein persönliches Projekt, greifen die html mit urllib2. Allerdings bin ich im laufen in ein problem, wo, mit dem nachstehenden code in das html bekomme ich
3
Antworten
Ich habe eine urllib2 opener, und möchte es für eine POST-Anfrage mit ein paar Daten. Ich bin auf der Suche zu erhalten, den Inhalt der Seite, dass ich die Buchung und auch die URL der Seite zurückgegeben
3
Antworten
Ich bin über die Yahoo-Api, habe ich umgesetzt random-Schlaf-Methode zusätzlich habe ich Hinzugefügt, hart, schläft aber ich bin noch nicht in der Lage zu Bild, wie kann ich nur warten, oder versuchen Sie es erneut, wenn ich
3
Antworten
Möchte ich auf eine Schaltfläche klicken, mit python, die info für das Formular wird automatisch ausgefüllt, durch die Webseite. der HTML-code für das senden einer Anfrage an den button ist: INPUT type="submit" value="Place a Bid"> Wie würde
5
Antworten
Möchte ich nicht verwenden html Datei, aber nur mit django ich habe die POST-Anfrage. Genau wie urllib2 sendet eine get Anfrage. InformationsquelleAutor zjm1126 | 2011-03-15
10
Antworten
Ich habe eine Aufgabe zum herunterladen Gbs von Daten von einer website. Die Daten werden in form von .gz-Dateien, jede Datei 45mb groß. Den einfachen Weg, um die Dateien zu verwenden ist "wget -r -np -Ein-Dateien-url". Dies
1
Antworten
Ich bin mit urllib2 und das urllib-Bibliotheken von python angenommen, hatte ich den folgenden code import urllib2 import urllib url = 'http://ah.example.com' half_url = u'/servlet/av/jd?ai=782&ji=2624743&sn=I' req = urllib2.Request(url, half_url.encode('utf-8')) response = urllib2.urlopen(req) print response wenn ich den
4
Antworten
Ich bin ein python Anfänger. Ich bin mit urllib2 Dateien herunterladen. Wenn ich eine Datei herunterladen, ich geben Sie einen Dateinamen ein, mit dem Sie zum speichern der heruntergeladenen Datei auf meiner Festplatte. Allerdings, wenn ich laden
4
Antworten
Ich bin mit urllib2 lädt man Dateien von ftp - und http-Servern. Einige der Server unterstützt nur eine Verbindung pro IP. Das problem ist, dass urllib2 nicht schließen, wird die Verbindung sofort. Betrachten Sie das Beispiel-Programm. from
4
Antworten
Ich Schreibe ein Skript(multi-threaded) zum abrufen von Inhalten von einer website, und die Website ist nicht sehr stabil, so dass jedes jetzt und dann gibt es hängende http-Anforderung, die noch nicht einmal Zeit-geoutet von socket.setdefaulttimeout(). Da habe
3
Antworten
In Python, die ich verwenden kann urllib2 (und das urllib) zum öffnen externer URLs wie Google. Ich bin jedoch schlagen Probleme beim öffnen von localhost-URLs. Ich habe ein python SimpleHTTPServer läuft auf port 8280, die ich durchsuchen
4
Antworten
Sagen, ich schaue auf die folgenden Tumblr post: http://ronbarak.tumblr.com/post/40692813... Es (derzeit) hat 292 Anmerkungen. Ich würde gerne alle die obigen Notizen mit einem Python-Skript (z.B. via urllib2, BeautifulSoup, simplejson, oder tumblr-Api). Einige umfangreiche Googeln produzieren nicht alle
3
Antworten
Wie kann ich download mehrere links gleichzeitig? Mein Skript funktioniert aber nur downloads, ein zu einer Zeit, und es ist extrem langsam. Ich kann nicht herausfinden, wie zu integrieren multithreading in meinem Skript. Python-Skript: from BeautifulSoup import
1
Antworten
Ich bin mit einem python-opengraph-Bibliothek zum analysieren einer website opengraph-tags https://github.com/erikriver/opengraph. import opengraph url = 'http://www.foxnews.com/world/2014/10/20/uk-gun-owners-now-subject-to-warrantless-home-searches/' og = opengraph.OpenGraph(url=url) print og.to_json() Wenn ich dieses Skript ausführen, erhalte ich die Fehlermeldung Traceback (most recent call last): File "test.py",
2
Antworten
Ich die Anmeldung zu dieser website: https://www.fitbit.com/login Dies ist mein code, den ich verwenden: import urllib2 import urllib import cookielib login_url = 'https://www.fitbit.com/login' acc_pwd = {'login':'Log In','email':'username','password':'pwd'} cj = cookielib.CookieJar() ## add cookies opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) opener.addheaders
4
Antworten
Habe ich ein perl-Programm, das ruft Daten aus der Datenbank meiner Uni-Bibliothek und es funktioniert gut. Jetzt möchte ich das schreiben in python, aber das problem stoßen <urlopen error [errno 104] connection reset by peer> Den perl-code
2
Antworten
>> url = 'https://test.authorize.net/gateway/transact.dll' >> data = {'x_login': 'abc123', 'x_type': 'AUTH_CAPTURE', 'x_card_num': '4444333322221103', 'x_amount': '50.75', 'x_tran_key ': 'abc123', 'x_version': '3.1', 'x_delim_char': '|', 'x_exp_date': '022012', 'x_delim_data': 'TRUE'} >> >> urllib2.urlopen(url, data) Traceback (most recent call last): File "<stdin>",