Questions tagged «http»

有关使用超文本传输​​协议的程序和服务的所有信息。

19
简单的命令行HTTP服务器
我有一个脚本可以生成每日报告,并希望将其提供给所谓的公众。问题是我不想增加所有配置和安全隐患的HTTP服务器(例如Apache)的维护工作。 是否有一个死的简单解决方案来提供一个小的HTML页面,而无需配置完整的HTTP服务器?


7
我可以创建覆盖dns类似于在没有root访问权限的情况下在/ etc / hosts中写入
我想设置我的浏览器将使用的dns记录,但是我没有root访问权,因此无法进行修改/etc/hosts。我需要使用apache测试虚拟主机,而dns尚未设置。我可以使用firefox和chrome,因此,如果有一个插件可以方便使用它;或其他选项很有帮助。 更新:替代dns的替代方法可能是修改HTTP标头,如果将正确的标头发送到apache,则应返回正确的内容。

4
更改Apache httpd“服务器:” HTTP标头
Apachehttpd随响应数据发送回的HTTP标头之一是“服务器”。例如,我的Web服务器计算机是相对较新的Arch Linux。它发送回类似于以下内容的标头: HTTP/1.1 404 Not Found Date: Thu, 10 Apr 2014 17:19:27 GMT Server: Apache/2.4.9 (Unix) Content-Length: 1149 Connection: close Content-Type: text/html 我在ServerSignature off中/etc/httpd/conf/httpd.conf,但是“ Server:”标题仍然出现。我已经尝试过mod_headers。我启用了它,并且尝试了一些操作: <IfModule headers_module> Header set ProcessingTime "%D" Header set Server BigJohn </IfModule> 停止并开始httpd上述配置后,HTTP标头包含类似的内容ProcessingTime: 1523,但“ Server:”标头行保持不变。因此,我知道“ mod_headers”已安装并启用,并且可以正常工作,但并没有达到我的期望。 我看到有一种叫做“ mod_security”的东西声称可以做到这一点,但是我不希望mod_security带来的所有其他负担。 更新: 一旦mod_security安装,您只需要几个指令: <IfModule security2_module> SecRuleEngine on ServerTokens Full …

7
通过错误的连接下载大文件
有没有可用的现有工具,可以通过错误的连接下载大文件? 我必须定期下载一个相对较小的文件:300 MB,但是慢速(80-120 KB /秒)的TCP连接会在10-120秒后随机中断。(这是一个大公司的网络。我们多次联系了他们的管理员(在印度工作),但他们不能或不想做任何事情。)问题可能出在他们的反向代理/负载平衡器上。 到目前为止,我使用的是pcurl的修改版本:https : //github.com/brunoborges/pcurl 我更改了这一行: curl -s --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & 对此: curl -s --retry 9999 --retry-delay 3 --speed-limit 2048 --speed-time 10 \ --retry-max-time 0 -C - --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & 我必须添加,--speed-limit 2048 --speed-time 10因为连接失败时大部分时间只会挂起几分钟。 但是最近,即使这个脚本也无法完成。 一个问题是它似乎忽略了该-C -零件,因此它在重试后不会“继续”该段。似乎会截断相关的临时文件,并在每次失败后从头开始。(我认为--range和-C选项不能一起使用。) 另一个问题是此脚本同时下载所有段。它不能有300个段,一次只能下载10个。 我当时正在考虑为此目的用C#编写下载工具,但是如果有现有工具,或者curl命令可以在不同的参数下正常工作,那么我可以节省一些时间。 更新1:附加信息:不应删除并行下载功能,因为每个连接具有带宽限制(80-120 KB …
30 curl  http  download 

4
如何通过SSH播放HTTP音乐流?
我知道我可以做mplayer <stream>,以打开并播放本地计算机上的流。但是,我在防火墙后面。 取而代之的是,我想在远程计算机上打开流,但仍在此计算机上播放它。远程连接是SSH的目的,但同时打开和播放远程流。ssh "mplayer <stream>" SSH的-x标志启用X11显示转发。我需要那个吗?
29 ssh  http  mplayer  streaming  music 

2
如何检查curl等命令是否正确完成?
我正在使用curl通过HTTP发布将文件上传到服务器。 curl -X POST -d@myfile.txt server-URL 当我在命令行上手动执行此命令时,我从服务器收到响应,如"Upload successful"。但是,如何通过脚本执行curl命令,如何确定POST请求是否成功?

2
仅转储POST请求的通用HTTP服务器?
我正在寻找一个命令行工具,该工具可以侦听给定的部分,但很高兴地每个HTTP POST请求除外并转储它。 我想将其用于测试目的,即用于测试发出HTTP POST请求的客户端。 这意味着我正在搜索对应的对象curl -F(可以用来将测试HTTP POST发送到HTTP服务器)。 也许像这样socat TCP4-LISTEN:80,fork,bind=127.0.0.1 ...-但是socat是不够的,因为它不讲HTTP。

3
我可以使用什么工具来监听HTTP / HTTPS流量?
我正在寻找一种命令行工具,该工具可以拦截HTTP / HTTPS请求,提取诸如以下内容的信息:(内容,目标等),执行各种分析任务,最后确定是否应删除该请求。法律要求必须转发给申请。 一种工具,在本质上是相似的tcpdump,Wireshark的,或Snort的,但在HTTP级别运行。 参考文献 在Linux上拦截HTTP请求

3
无法通过PPPoE访问Linux上的选定https站点
我的Internet连接曾经是到我的提供商的直接LAN连接。那时,Windows和Ubuntu(双重引导)都可以正常加载。但是,不久前,他们开始需要我使用用户名和密码拨号(PPPoE)。网关,子网掩码,IP,DNS服务器都保持不变。但是从那以后,即使Windows上没有此类问题,我也无法在Ubuntu上浏览某些网站。一些示例网站是-Ovi的登录页面(尽管share.ovi.com可以很好地加载,并且nokia.com可以很好地加载),Live Mail(在Chrome(ium)和Opera上有效,但在Firefox(3.6和4上均不能))Mozilla Addons网站和其他随机网站。 一些未加载的网站会显示超时消息,而对于某些网站(例如moz插件之一),浏览器将继续尝试无休止地加载(我已经将其保留了好几个小时,但没有发现任何其他变化)发生)。 我尝试将DNS服务器更改为公共服务器。我什至尝试过从Fedora LiveCD引导,然后将DNS更改为那些(甚至是OpenDNS的DNS),但是确实发生了同样的事情。导致此问题的Linux本身中的某些配置可能固有地存在问题? 有谁知道这是为什么发生以及如何解决? 注意:这个问题已经 交叉发布在SU上,但未得到任何答复。 更新:只是在这里看到其他人也有类似的问题,并通过将NetworkManager.conf文件放入/etc/NetworkManager。该文件中需要包含什么内容?
18 networking  ip  internet  http 

4
如何通过telnet到HTTP端口80?
在google中搜索后,我发现我们可以telnet将其网页服务器连接到其http端口并用于GET检索html页面。 例如: $ telnet web-server-name 80 但是我不明白这怎么可能? 我认为如果端口80用于http服务器,则端口80将仅侦听http请求。但是我怎么telnet去HTTP港口呢? 是不是telnet和HTTP两个不同的协议?

2
与Web服务器的目录列表同步
有没有一种简单的方法可以使文件夹通过HTTP与目录列表同步? 编辑: 感谢wget的提示!我创建了一个shell脚本并将其添加为cron作业: remote_dirs=( "http://example.com/" "…") # Add your remote HTTP directories here local_dirs=( "~/examplecom" "…") for (( i = 0 ; i < ${#local_dirs[@]} ; i++ )) do cd "${local_dirs[$i]}" wget -r -l1 --no-parent -A "*.pdf" -nd -nc ${remote_dirs[$i]} done # Explanation: # -r to download recursively # -l1 …

2
Wget返回二进制而不是HTML?
我正在使用wget下载静态html页面。W3C验证程序告诉我该页面以UTF-8编码。然而,当我下载完文件后,我得到了一堆二进制废话。我在Ubuntu上,我认为默认编码为UTF-8?这就是我的语言环境文件所说的。为什么会发生这种情况,我该如何纠正? 另外,看起来像Content-Encoding: gzip。也许这有所不同? 这是简单的请求: wget https://www.example.com/page.html 我也尝试过这个: wget https://www.example.com/page.html -q -O - | iconv -f utf-16 -t utf-8 > output.html 哪个返回: iconv: illegal input sequence at position 40 处理文件将返回类似于以下内容的二进制文件: l�?חu�`�q"�:)s��dġ__��~i��6n)T�$H�#���QJ 结果xxd output.html | head -20: 00000000: 1f8b 0800 0000 0000 0003 bd56 518f db44 ...........VQ..D 00000010: 107e a6bf 62d4 8a1e …

2
如何使用来自HTTP的文件作为GNU make中的先决条件?
我想将万维网上的文件用作我的makefile中的先决条件: local.dat: http://example.org/example.gz curl -s $< | gzip -d | transmogrify >$@ 我只想在远程文件比本地文件更新的情况下“迁移”,就像make正常运行一样。 我不希望保留的高速缓存副本example.gz -文件都很大,而且我不需要原始数据。最好我完全避免下载文件。目的是使用-jmake标志并行处理其中的一些。 有什么干净的方法可以解决这个问题?我可以想到一些方法: 保留一个空的虚拟文件,每次重新创建目标时更新 一些使用GNU make的新插件系统的插件(我对此一无所知) 不可知的方式将HTTP服务器安装在本地文件系统中 在深入探讨之前,我想提出一些建议,最好是具体的例子!

3
将HTTP Server挂载为文件系统
我有一台机器,希望在该机器上安装多个远程服务器以集中访问它们。对于基于远程Linux的系统,我使用的是SSHFS,效果很好。但是对于Windows系统或没有SSH的系统,它们都安装了某种形式的HTTP服务器来共享文件(因此它们都启用了目录浏览)。 是否可以将HTTP服务器作为SSHFS之类的本地文件系统挂载,以便可以将所有这些远程服务器本地挂载并以统一的方式显示?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.