带有Python'请求'模块的代理


159

简短,简单的介绍了出色的Python 请求模块。

我似乎在文档中找不到变量“代理”应包含的内容。当我发送带有标准“ IP:PORT”值的字典时,它拒绝要求2个值。所以,我猜(因为在文档中似乎没有涵盖),第一个值是ip,第二个值是端口?

文档只提到了这一点:

代理–(可选)字典到代理URL的映射协议。

所以我尝试了...我应该怎么做?

proxy = { ip: port}

在将它们放入字典之前,我应该将它们转换为某种类型吗?

r = requests.get(url,headers=headers,proxies=proxy)

Answers:


280

proxies“字典语法{"protocol":"ip:port", ...}。使用它,您可以使用httphttpsftp协议为请求指定不同(或相同)的代理:

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"

proxyDict = { 
              "http"  : http_proxy, 
              "https" : https_proxy, 
              "ftp"   : ftp_proxy
            }

r = requests.get(url, headers=headers, proxies=proxyDict)

requests文档推导:

参数:
method –新Request对象的方法。
url–新的Request对象的URL。
...
proxies–(可选)字典映射 协议代理URL
...


在Linux上,你也可以通过这样做HTTP_PROXYHTTPS_PROXY以及FTP_PROXY环境变量:

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

在Windows上:

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

谢谢,Jay指出了这一点:
语法随请求2.0.0更改。
您需要将架构添加到url:https : //2.python-requests.org/en/latest/user/advanced/#proxies


我知道@cigar,因为urllib2的代理字典使用完全相同的格式,当我看到docs.python-requests.org/en/latest/api/#module-requests时说“代理–(可选)字典映射协议到代理的网址。”,我马上就知道了。
chown

1
嗯,我明白了,因为从未摆脱过从这里获得的建议,所以从未将代理与urllib2一起使用,而是用8行代码替换了2页代码:/ re:shoulder :)))在这里呆了很长时间,您已经在这里节省了我几个小时总!如果您在音乐方面需要任何帮助,可以向我提供建议,否则,除了大量的感谢或喝杯茶外,别无他法!

似乎请求以及使用代理时urllib3无法执行CONNECT :(
dzen

@dzen我还没有使用过,urllib3所以我必须调查一下。感谢您的注意。
chown

3
@chown在请求2.0.0中更改了语法。您需要在网址中添加架构:docs.python-requests.org/en/latest/user/advanced/#proxies如果可以在此处将其添加到答案中,这很好
杰伊,

28

我发现urllib有一些非常好的代码来选取系统的代理设置,而且它们恰好采用直接使用的正确形式。您可以这样使用:

import urllib

...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())

它确实运行良好,并且urllib知道如何获取Mac OS X和Windows设置。


没有代理就可以使用吗?我们的某些用户没有代理,有些则没有。
jonasl 2014年

1
它是否包含no_proxy,并且请求是否尊重no_proxy?没关系,似乎有解决方案:github.com/kennethreitz/requests/issues/879
jrwren

4
得到错误:module 'urllib' has no attribute 'getproxies'
Zahra

4
绿色:urllib.request.getproxies()
oliche

1
@Zahra尝试urllib2.getproxies()
rleelr

25

您可以在此处参考代理文档

如果需要使用代理,则可以使用任何请求方法的proxies参数配置单个请求:

import requests

proxies = {
  "http": "http://10.10.1.10:3128",
  "https": "https://10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

要将HTTP Basic Auth与您的代理一起使用,请使用http:// user:password@host.com/语法:

proxies = {
    "http": "http://user:pass@10.10.1.10:3128/"
}

17

可接受的答案对我来说是一个好的开始,但是我不断遇到以下错误:

AssertionError: Not supported proxy scheme None

解决此问题的方法是在代理url中指定http://,从而:

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"

proxyDict = {
              "http"  : http_proxy,
              "https" : https_proxy,
              "ftp"   : ftp_proxy
            }

我想知道为什么原始作品对某些人有用,但对我却不有用。

编辑:我看到主要的答案现在已更新以反映此:)


4
更改为2.0.0:代理URL现在必须具有显式方案。如果没有,则会引发MissingSchema异常。
2014年

4

如果您要坚持使用cookie和会话数据,则最好这样做:

import requests

proxies = {
    'http': 'http://user:pass@10.10.1.0:3128',
    'https': 'https://user:pass@10.10.1.0:3128',
}

# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies

# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')

2

晚了8年。但我喜欢:

import os
import requests

os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'

r = requests.get('https://example.com')  # , verify=False

1

这是我的python基本类,带有一些代理配置和秒表的requests模块!

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x


test=BaseCheck(url='http://google.com')
test.getrequests()

1

我只是做了一个代理抓取器,也可以与相同的抓取代理连接,而无需任何输入,这里是:

#Import Modules

from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

0

有点晚了,但这是一个包装器类,它简化了抓取代理,然后进行了HTTP POST或GET:

代理请求

https://github.com/rootVIII/proxy_requests

0

我共享一些代码,该代码介绍如何从“ https://free-proxy-list.net”站点获取代理并将数据存储到与“ Elite Proxy Switcher”(格式为IP:PORT)这样的工具兼容的文件中:

## PROXY_UPDATER-从https://free-proxy-list.net/获取免费代理

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re

######################FIND PROXIES#########################################
def get_proxies():
    url = 'https://free-proxy-list.net/'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = set()
    for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
        proxy = ":".join([i.xpath('.//td[1]/text()') 
        [0],i.xpath('.//td[2]/text()')[0]])
        proxies.add(proxy)
    return proxies



######################write to file in format   IP:PORT######################
try:
    proxies = get_proxies()
    f=open('proxy_list.txt','w')
    for proxy in proxies:
        f.write(proxy+'\n')
    f.close()
    print ("DONE")
except:
    print ("MAJOR ERROR")
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.