web-dev-qa-db-fra.com

Proxies avec le module 'Requêtes' Python

Juste un bref commentaire sur l'excellent Requests module for Python.

Je n'arrive pas à trouver dans la documentation ce que la variable 'proxy' devrait contenir. Lorsque je lui envoie un dict avec une valeur standard "IP: PORT", il le rejette et demande 2 valeurs ..__ Donc, je suppose (car cela ne semble pas être couvert dans la documentation), la première valeur est la ip et le second le port? 

Les docs mentionnent ceci seulement:

procurations - (facultatif) protocole de mappage du dictionnaire sur l'URL du proxy.

Alors j'ai essayé ça ... que devrais-je faire? 

proxy = { ip: port}

et devrais-je les convertir en un type avant de les mettre dans le dict? 

r = requests.get(url,headers=headers,proxies=proxy)
112
user1064306

La syntaxe de dict proxies 'est {"protocol":"ip:port", ...}. Avec celui-ci, vous pouvez spécifier des mandataires différents (ou identiques) pour les demandes à l'aide de http , https et protocoles ftp :

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"

proxyDict = { 
              "http"  : http_proxy, 
              "https" : https_proxy, 
              "ftp"   : ftp_proxy
            }

r = requests.get(url, headers=headers, proxies=proxyDict)

Déduit de la requests documentation :

Paramètres:
method - méthode pour le nouvel objet Request.
url - URL du nouvel objet Request.
...
proxiesfacultatif) Dictionnaire mappant protocole au protocole URL du proxy .
...


Sur Linux, vous pouvez également le faire via les variables d’environnement HTTP_PROXY, HTTPS_PROXY et FTP_PROXY:

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

Sous Windows:

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

Merci Jay pour l'avoir signalé:
La syntaxe a été modifiée avec request 2.0.0 .
Vous devrez ajouter un schéma à l’URL: --- (http://docs.python-requests.org/en/latest/user/advanced/#proxies

241
chown

J'ai constaté que l'urllib dispose d'un très bon code pour collecter les paramètres de proxy du système et que leur format est correct, à utiliser directement. Vous pouvez utiliser ceci comme:

import urllib

...
r = requests.get('http://example.org', proxies=urllib.getproxies())

Cela fonctionne très bien et urllib sait comment obtenir les paramètres Mac OS X et Windows.

22
Ben Golding

Vous pouvez vous référer à la documentation proxy ici .

Si vous devez utiliser un proxy, vous pouvez configurer des requêtes individuelles avec l'argument de proxy pour toute méthode de requête:

import requests

proxies = {
  "http": "10.10.1.10:3128",
  "https": "10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

Pour utiliser HTTP Basic Auth avec votre proxy, utilisez la syntaxe http: // user: [email protected]/ :

proxies = {
    "http": "http://user:[email protected]:3128/"
}
18
Zhifeng Hu

La réponse acceptée était un bon début pour moi, mais je continuais à avoir l'erreur suivante:

AssertionError: Not supported proxy scheme None

Correction à cela était de spécifier le http: // dans l'URL du proxy ainsi: 

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"

proxyDict = {
              "http"  : http_proxy,
              "https" : https_proxy,
              "ftp"   : ftp_proxy
            }

Je serais intéressé de savoir pourquoi l'original fonctionne pour certaines personnes mais pas pour moi. 

Edit: Je vois que la réponse principale est maintenant mise à jour pour refléter cela :) 

16
Owen B

voici ma classe de base en python pour le module de requêtes avec quelques configs de proxy et chronomètre!

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x


test=BaseCheck(url='http://google.com')
test.getrequests()
1
mtt2p

Si vous souhaitez conserver les cookies et les données de session, procédez de la manière suivante:

import requests

proxies = {
    'http': 'http://user:[email protected]:3128',
    'https': 'https://user:[email protected]:3128',
}

# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies

# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')
1
User

C’est un peu tard, mais voici une classe d’emballage qui simplifie le grattage des mandataires et la création d’un http POST ou d’un GET:

ProxyRequests

https://github.com/rootVIII/proxy_requests
0
user10171509

je viens de faire un graber proxy et peut également se connecter avec le même proxy grabed sans aucune entrée.

#Import Modules

from termcolor import colored
from Selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code
0
Rae mh