Questions tagged «streaming-video»

流视频通常意味着在从网络(例如YouTube)下载视频时观看视频。对于RPi,它还指的是从连接的“树莓派”或USB连接的摄像机捕获视频数据并将其转发到LAN或Internet上的其他计算机的过程。该标签用于有关如何在RPi之间传输视频的问题。

8
如何通过网络服务器从Raspberry Pi摄像机模块流式传输H.264视频?
所以我今天得到了Raspberry Camera,并且静止图像工作正常。 捕获JPEG格式的图像: raspistill -o image.jpg 捕获H.264格式的5秒钟视频: raspivid -o video.h264 我不想安装任何其他应用程序,因为我想利用随时可用的HTML5。由于Chrome / Safari具有用于H.264的内置解码器,所以我只想将浏览器指向该URL并观看流。 我该如何实现?



3
从Raspberry Cam传输H.264的现代方法
我得到了Pi B +和Pi摄像机,现在正试图找到最高效的(低CPU)和最低的延迟配置,以将H.264编码的视频从摄像机传输到我的家庭服务器。 我已阅读以下内容: http://pi.gbaman.info/?p=150 http://blog.tkjelectronics.dk/2013/06/how-to-stream-video-and-audio-from-a-raspberry-pi-with-no-latency/comment-page-1/#comments http://www.raspberrypi.org/forums/viewtopic.php?p=464522 (所有链接都使用的gstreamer-1.0 deb http://vontaene.de/raspbian-updates/ . main。) 过去几年在这方面已经做了很多工作。 最初,我们必须将输出连接raspivid到gst-launch-1.0(请参阅链接1)。 然后(链接2)创建了官方的V4L2驱动程序,该驱动程序现在是标准驱动程序,它允许仅使用gstreamer而不用管道直接获取数据(特别是towolf发表的帖子»Sat Dec 07,2013 3:34 pm in link 2): 发件人(Pi): gst-launch-1.0 -e v4l2src do-timestamp=true ! video/x-h264,width=640,height=480,framerate=30/1 ! h264parse ! rtph264pay config-interval=1 ! gdppay ! udpsink host=192.168.178.20 port=5000 接收方: gst-launch-1.0 -v udpsrc port=5000 ! gdpdepay ! rtph264depay ! …

4
从PC无线传输视频到Pi到TV?
我的外部硬盘驱动器上有一些电影(请注意:通常为1080p)。该驱动器已连接到我的PC(Mac)。外部硬盘还包含一些重要的工作文件,因此无法将其与Mac分离。 我在附近的大厅里有一台32英寸电视。我可以通过HDMI将Pi的输出连接到电视上。现在,我要做的就是将Mac上的视频内容通过Pi传输到电视上。 Pi和Mac连接到同一个Wifi网络,如果有帮助的话,Pi也可以无线连接,两个房间也都在附近,Mac和Pi也都靠近无线路由器。 我只想将Mac的屏幕复制到大厅的电视上。这样,我可以播放任何我想要的东西,它会显示在电视上。 不过,我有一些疑问: 首先,这可能吗?如果是,视频会断断续续吗?我是否需要购买其他编解码器? 谢谢。

3
从网络摄像机启用高分辨率捕获
我正在尝试通过该motion应用程序使用Pi进行网络摄像头流和运动检测。尝试几种不同的网络摄像机以及与其他硬件的组合,我发现一种组合非常稳定(请参阅下文)。但是,我只能使它以352x288的分辨率工作。我想利用720p网络摄像头所能提供的更多分辨率。我尝试了640x480、640x360和1280x720,但它们不起作用(motion无法初始化相机)。Pi具有256MB的内存,应该足够支持高分辨率。例如,motion列出1280x720分辨率下1.8MB的内存使用情况。 关于如何启用更高分辨率的任何提示? 稳定: 罗技C310h USB 2.0高清网络摄像头,UVC摄像头(046d:081b) 352x288,YUYV调色板 由iPad充电器供电 网络摄像头连接到下部USB端口 没有连接到上层USB端口 有线网络已连接 运行Motion 3.2.12。 作业系统:2012-09-18-wheezy-raspbian.img 仅更改为motion.conf:将分辨率设置为352x288 编辑:从那时起,我发现我当前与MJPG-streamer一起使用的设置不是完全稳定的,因此上述设置有可能不是完全稳定的,而是因为使用较低的分辨率而变得更加稳定。 编辑2(4/21/13):一段时间以来,人们都知道USB在Raspberry Pi上不稳定,从而导致许多网络摄像头和wifi加密狗出现故障。基金会正在为此积极努力,最近已经取得了良好的进展。通过rpi-update提供了一个可修复许多问题的更新。请参阅Raspberry Pi论坛上的USB Redux线程。

6
使用Logitech C920传输H264
我有一个Logitech C920网络摄像头。它具有直接在H264中编码视频的能力。 我想重现使用Beaglebone完成的操作,但是要使用Raspberry Pi:将H264流发送到网络。然后,Raspberry Pi仅在此处用于打包RTP中的流,视频压缩由网络摄像头本身完成。使用video4linux强制执行H264模式。 到目前为止,如果我在最新版本的Ubuntu上使用普通计算机,则可以将VLC用作服务器或GStreamer。例如,如果我在Raspberry Pi上使用以下命令启动VLC服务器: cvlc --sout=#rtp{sdp=rtsp://:8554/test} 'v4l2:///dev/video0:chroma=H264:width=800:height=600:fps=30' ...然后,如果我在另一台计算机上使用VLC读取了流,那么一切正常。 但是,如果我使用树莓派发送视频流,则结果会很差。一旦有东西移动,图像中就会有很多垃圾。图像密钥每10秒收到一次,但与此同时,与来自普通计算机的流相比,它还不够好。 我还尝试了使用提供的“捕获”实用程序为beaglebone所描述的方法:好的,如果我从真实计算机中进行流式处理,则如果我从Raspberry Pi中进行流式处理,则出现相同的垃圾问题。 这不是网络问题:我使用Wireshark和VLC的统计信息进行了一些网络检查,没有数据包丢失。我尝试过使用Raspbian和用于Raspi的Arch Linux(在raspbian中使用gstreamer 0.10,在Arch Linux中使用gstreamer 1.0)。 我不知道它是否相关,但是我也使用Raspbian的soft float支持版本进行了测试。使用3.2内核必须首先完成更新; 但同样的问题,视频有一些垃圾。 我有什么办法可以提高视频质量吗?

2
如何使Raspivid跳过h264编码?(摆脱了5秒的延迟流视频)
当使用Pi和PI-Cam作为监控摄像头时,有成千上万的论坛和话题讨论如何摆脱5秒钟的延迟。许多教程展示了如何使用vlc通过RTP协议对图像进行编码和流传输,这会导致〜5秒的延迟。 据我说,原因是raspivid正在将流编码为H264,而VLC必须再次对其进行解码,然后将其重新编码为任何RTP。命令行如下所示: raspivid -w 640 -h 480 -o - -t 0 |cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 第一部分告诉raspivid将视频流传输到标准输出: raspivid -w 640 -h 480 -o - -t 0 管道后面的部分告诉VLC进行拾取,并使用h264对其进行解码: cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 这种多路复用和多路复用是相当多的资源! 我在github上找到了raspicam的来源,并且我认为可以在encoder_buffer_callback方法中执行某些操作(当前在848行)以跳过编码。但是我不擅长c语言,也不熟悉视频编码,因此我不知道从哪里开始。 在Github上,我可以看到330个fork,但是它们似乎并不是专门针对raspicam的(而是针对整个userland项目)。我迷失了寻找去掉编码或实现更简单的东西(例如mjpeg)的fork的想法。 具备c和视频编解码器知识的人可以帮助我和其他专长的用户摆脱延迟吗?解决方案可能已经在其中一个分支中了,但是我花了数小时没有任何运气来寻找它。 ps我不是在寻找浏览器解决方案,但我最终希望将其流式传输到Synology,最好使用mjpeg流式传输(但不是通过网页,而是大多数商用ip-cam内置的标准mjpeg流)。第一步是摆脱h264的束缚。

2
同时记录和流式传输来自摄像机的视频
我正在使用带有picamera的Camera Module从Pi录制视频: import picamera with picamera.PiCamera() as camera: camera.resolution = (640, 480) camera.start_recording('1.h264') camera.wait_recording(5) for i in range(2, 11): camera.split_recording('%d.h264' % i) camera.wait_recording(5) camera.stop_recording() 我分别使用的组合raspivid和gstreamer从pi流式传输视频,没有任何延迟。有没有一种方法可以同时使用python存储和传输素材? 我的想法是必须有一种使用相机作为输入并创建两个输出源的方法:一个用于存储的720p视频和一个使用gstreamer进行流传输的缩小的240p视频...?

2
HTTP实时流
我目前有一个使用Motion的设置,用于从与树莓派相连的网络摄像头中流式传输视频。不幸的是,这是非常低的质量,并且帧速率很差。 我正在研究使用HTTP Live Streaming,但是对此的详细信息充其量只能说是模糊的,尤其是在使用树莓派作为服务器时。 如果无法做到这一点,我必须为流式传输“高质量”视频提供哪些选择?



2
使用UV4L驱动程序将视频从Raspberry Pi相机流式传输到Android手机
你好覆盆子的人! 我发布了一个新问题,因为我在raspberrypi.stackexchange上没有足够的代表才能对此帖子发表评论:https : //raspberrypi.stackexchange.com/questions/15000/stream-video-from-rpi-cam -to-android-phone可以解决我的问题,只有我无法使它起作用:( 简而言之,我想通过我的Android控制机器人,机器人内部是带有树莓派相机的树莓派。因此,对于初学者来说,我只想将视频从机器人流式传输到手机上的Java应用程序。 。 关于上述问题的第一条评论链接到该帖子,该帖子显示了如何使用PS眼睛作为摄像头将视频从Raspberry流式传输到Android手机。 “ alex”的第四个评论说,关于使用树莓派pi摄像头而不是PS摄像头摄像头: I've found the solution: I had to install the uv4l driver to use the RaspiCam as /dev/video0 and I had to modify the gst-server.sh : inserted videoscale !\ after ffmpegcolorspace !\ and it works :) 因此, 我按照本指南在树莓派上安装uv4l驱动程序:http : //www.linux-projects.org/modules/sections/index.php? op=viewarticle&artid …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.