Questions tagged «pycurl»

11
安装pycurl时出现“无法运行curl-config:[Errno 2]没有这样的文件或目录”
我正在尝试通过以下方式安装pycurl: sudo pip install pycurl 它下载得很好,但是当它运行setup.py时,我得到以下回溯: Downloading/unpacking pycurl Running setup.py egg_info for package pycurl Traceback (most recent call last): File "<string>", line 16, in <module> File "/tmp/pip-build-root/pycurl/setup.py", line 563, in <module> ext = get_extension() File "/tmp/pip-build-root/pycurl/setup.py", line 368, in get_extension ext_config = ExtensionConfiguration() File "/tmp/pip-build-root/pycurl/setup.py", line 65, in __init__ self.configure() …
185 python  install  pycurl 

7
为什么Python无法找到sys.path目录中的共享对象?
我正在尝试导入pycurl: $ python -c "import pycurl" Traceback (most recent call last): File "<string>", line 1, in <module> ImportError: libcurl.so.4: cannot open shared object file: No such file or directory 现在,libcurl.so.4在中/usr/local/lib。如您所见,这是在sys.path: $ python -c "import sys; print(sys.path)" ['', '/usr/local/lib/python2.5/site-packages/setuptools-0.6c9-py2.5.egg', '/usr/local/lib/python25.zip', '/usr/local/lib/python2.5', '/usr/local/lib/python2.5/plat-linux2', '/usr/local/lib/python2.5/lib-tk', '/usr/local/lib/python2.5/lib-dynload', '/usr/local/lib/python2.5/sitepackages', '/usr/local/lib', '/usr/local/lib/python2.5/site-packages'] 任何帮助将不胜感激。

3
使用需要承载令牌的API在Python中进行API调用
在将JSON API调用集成到Python程序中寻求帮助。 我希望将以下API集成到Python .py程序中,以允许调用它并打印响应。 API指南指出,必须生成一个承载令牌才能允许对API的调用,而我已经成功完成了该调用。但是,我不确定在Python API请求中将此令牌作为承载令牌认证包括在内的语法。 我可以使用带有标记的cURL成功完成上述请求。我已经尝试过“ urllib”和“ requests”路由,但是都没有用。 完整的API详细信息:IBM X-Force Exchange API文档-IP信誉

26
使用OpenSSL时SSL后端错误
我试图使用pip在virtualenv中安装pycurl,但出现此错误 ImportError: pycurl: libcurl link-time ssl backend (openssl) is different from compile-time ssl backend (none/other) 我阅读了一些文档,说“要解决此问题,您需要告诉setup.py使用了什么SSL后端” (源),尽管由于使用pip安装了pycurl,所以我不确定该怎么做。 使用pip安装pycurl时如何指定SSL后端? 谢谢

8
在Python中哪个最好:urllib2,PycURL或机械化?
好的,所以我需要使用Python下载一些网页,并对我的选项进行了快速调查。 包含在Python中: urllib-在我看来,我应该改用urllib2。urllib不支持cookie,仅HTTP / FTP /本地文件(不支持SSL) urllib2-完整的HTTP / FTP客户端,支持大多数需要的东西,例如cookie,不支持所有HTTP动词(仅GET和POST,无TRACE等) 全功能: 机械化-可以使用/保存Firefox / IE cookie,采取诸如跟随第二个链接之类的操作,并得到积极维护(2011年3月发布的0.2.5) PycURL-支持curl所做的所有事情(FTP,FTPS,HTTP,HTTPS,GOPHER,TELNET,DICT,FILE和LDAP),坏消息:自2008年9月9日以来未更新(7.19.0) 新的可能性: urllib3-支持连接重用/池化和文件发布 不推荐使用(也可以使用urllib / urllib2代替): httplib-仅HTTP / HTTPS(无FTP) httplib2-仅HTTP / HTTPS(无FTP) 让我印象深刻的第一件事是urllib / urllib2 / PycURL / mechanize都是相当成熟的解决方案,可以很好地工作。mechanize和PycURL附带了许多Linux发行版(例如Fedora 13)和BSD,因此安装通常不是问题(很好)。 urllib2看起来不错,但我想知道为什么PycURL和机械化两者似乎都很流行,是否缺少某些东西(即,如果我使用urllib2,我是否会在某个时候画一个角?)。我真的很想就这些事情的利弊提供一些反馈,以便为自己做出最佳选择。 编辑:在urllib2中添加了有关动词支持的注释

6
在Python脚本中执行curl命令
我正在尝试在python脚本中执行curl命令。 如果我在终端中执行此操作,则如下所示: curl -X POST -d '{"nw_src": "10.0.0.1/32", "nw_dst": "10.0.0.2/32", "nw_proto": "ICMP", "actions": "ALLOW", "priority": "10"}' http://localhost:8080/firewall/rules/0000000000000001 我看到了使用建议pycurl,但是我不知道如何将其应用于我的。 我尝试使用: subprocess.call([ 'curl', '-X', 'POST', '-d', flow_x, 'http://localhost:8080/firewall/rules/0000000000000001' ]) 可以,但是还有更好的方法吗?
72 python  curl  pycurl 

1
如何在python中正确处理多个二进制文件?
我目前正在借助PycURL模块开发多线程下载器。我正在下载文件的一部分,然后将它们合并。 这些部分是从多个线程中分别下载的,它们以二进制模式写入临时文件,但是当我将它们合并到单个文件(它们以正确的顺序合并)时,校验和不匹配。 这仅在linux env中发生。相同的脚本在Windows env中可以完美地工作。 这是合并文件的代码(脚本的一部分): with open(filename,'wb') as outfile: print('Merging temp files ...') for tmpfile in self.tempfile_arr: with open(tmpfile, 'rb') as infile: shutil.copyfileobj(infile, outfile) print('Done!') 我也尝试过 write()method,但是它会导致相同的问题,并且大型文件将占用大量内存。 如果我cat将零件文件手动放入Linux中的单个文件,然后文件的校验和匹配,则问题出在python的文件合并中。 编辑: 这是我用来重现该问题的文件和校验和(sha256): 原始文件 哈希:158575ed12e705a624c3134ffe3138987c64d6a7298c5a81794ccf6866efd488 通过脚本合并的文件 哈希:c3e5a0404da480f36d37b65053732abe6d19034f60c3004a908b88d459db7d87 使用cat手动合并文件 哈希:158575ed12e705a624c3134ffe3138987c64d6a7298c5a81794ccf6866efd488 使用的命令: for i in /tmp/pycurl_*_{0..7}; do cat $i >> manually_merged.tar.gz; done 零件文件 -末尾编号,从0到7
10 python  pycurl 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.