Questions tagged «raspicam»

Raspberry Pi Foundation的CSI接口摄像头具有自然色和不带红外滤镜的NoIR版本,适用于夜视和其他特殊应用。

8
RasPi相机板和运动
我刚拿到相机板和Model A Raspberry Pi用作房屋的安全摄像头。我在Model B板上使用Logitech C170 USB摄像头进行Motion拍摄时,除了质量外,效果还不错。我原以为Raspberry Pi相机板会显示为,/dev/video0但运行Motion时出现错误: 无法打开视频设备/ dev / video0:无此文件或目录 相机与配合使用时效果很好raspistill -d。这必须与Motion配合使用,因为它必须在检测到运动时拍摄视频/图片,并且我必须能够从工作中访问它。 这个问题对我没有好处,因为它从未回答我的问题,而且我没有使用python。
37 camera  raspicam  motion  mmal  v4l2 

12
使用Raspberry Pi摄像头模块时,导致ENOSPC错误的原因是什么?
尝试使用Raspberry Pi相机时出现以下错误消息 # raspistill -o /tmp/gate_now.jpg mmal: mmal_vc_component_enable: failed to enable component: ENOSPC mmal: camera component couldn't be enabled mmal: main: Failed to create camera component mmal: Failed to run camera app. Please check for firmware updates 在研究此问题时,有多种原因可能导致ENOSPC消息,我想在此创建一个问题以对可能的原因进行分类。
33 raspicam 

4
Raspistill触发缓慢吗?
我试图一起触发“许多”覆盆子,而使用raspistill仅用于测试,我想知道为什么拍照这么慢,我进行了测试,并在按下命令的同时输入了Enter: raspistill -o /home/pi/test55.jpg -ex sports --nopreview 我在镜头前启动了一个iPhone天文钟。结果?7秒09(但很锐利,所以快门速度等还不错,我并没有变得模糊不清)。我该怎么做才能在拍摄照片之前“不”花X秒?我将同步数百个RPI,但我不希望其中的一些人在4秒时拍摄照片,而另一些人在10秒时拍摄照片,所以我想了解那里发生的一切。
18 camera  raspicam 

3
如何在不使用raspi-config的情况下启用相机?
我试图在最小化的Wheezy版本上使用raspi相机。该命令raspi-config不可用。到目前为止,我可以通过使用来编辑/boot/config.txt或安装缺少的软件来完成所有操作apt-get。 不幸的是,在我所看到的所有地方,相机上的所有教程(包括官方的RaspiCam-Documentation.pdf)都说首先要通过启用它raspi-config。那么,raspi-config对我可以手动复制的Pi实际做了什么?

3
从Raspberry Cam传输H.264的现代方法
我得到了Pi B +和Pi摄像机,现在正试图找到最高效的(低CPU)和最低的延迟配置,以将H.264编码的视频从摄像机传输到我的家庭服务器。 我已阅读以下内容: http://pi.gbaman.info/?p=150 http://blog.tkjelectronics.dk/2013/06/how-to-stream-video-and-audio-from-a-raspberry-pi-with-no-latency/comment-page-1/#comments http://www.raspberrypi.org/forums/viewtopic.php?p=464522 (所有链接都使用的gstreamer-1.0 deb http://vontaene.de/raspbian-updates/ . main。) 过去几年在这方面已经做了很多工作。 最初,我们必须将输出连接raspivid到gst-launch-1.0(请参阅链接1)。 然后(链接2)创建了官方的V4L2驱动程序,该驱动程序现在是标准驱动程序,它允许仅使用gstreamer而不用管道直接获取数据(特别是towolf发表的帖子»Sat Dec 07,2013 3:34 pm in link 2): 发件人(Pi): gst-launch-1.0 -e v4l2src do-timestamp=true ! video/x-h264,width=640,height=480,framerate=30/1 ! h264parse ! rtph264pay config-interval=1 ! gdppay ! udpsink host=192.168.178.20 port=5000 接收方: gst-launch-1.0 -v udpsrc port=5000 ! gdpdepay ! rtph264depay ! …

3
Raspberry Pi 3在操作系统级别上的可用内存不足1GB
我不知道这是否是关键问题。但是,我需要摆脱脑海中的问号。 我最近购买了Raspberry Pi 3主板,当我在玩它时,我意识到meminfo显示的物理内存大小(〜880MB)比1GB(官方网站上指定的)小得多。 root@mypi:~# cat /proc/meminfo MemTotal: 882780 kB MemFree: 536068 kB MemAvailable: 712180 kB 在相关raspi-config菜单项上检查两次,GPU可用的内存量为16MB(这是允许的最小限制)。 raspi-config -> Advanced Options -> Memory Split 引导配置还说gpu_mem是16MB。 root@mypi:~# cat /boot/config.txt | grep -i gpu gpu_mem=16 为了缩小问题空间,这里是系统信息。顺便说一下,系统是最新的。 操作系统版本: root@mypi:~# cat /etc/os-release | grep PRETTY_NAME PRETTY_NAME="Raspbian GNU/Linux 8 (jessie)" 内核版本: root@mypi:~# uname -a Linux …

2
使用Raspberry Pi相机模块在短时间内拍摄图像
我正在一个项目中,我需要使用Raspberry Pi摄像头模块每秒拍摄约30张图像(无电影)。 我正在为此使用Picamera库(http://picamera.readthedocs.org/en/latest/api.html),但是问题是,拍摄照片大约需要0.2-0.4秒,这很长。我已经将该use_video_port属性设置为True,这有所帮助,但是时间仍然很长。 你们中没人知道如何使用Python和Raspberry Pi相机模块在短时间内(约0.025s)拍照吗?
13 camera  image  raspicam 

2
将OpenCV与RasPiCam和python一起使用
有没有人能够让OpenCV使用python直接从RasPiCam板上播放视频? 我已经看到一些涉及解决方法的项目,但是我感兴趣的是能够将RasPiCam板与OpenCV一起使用,就好像它是USB凸轮一样。 理想情况下,我想执行以下操作: import cv2.cv as cv capture = cv.CreateCameraCapture(-1) #some other code to actually display the video


2
如何使Raspivid跳过h264编码?(摆脱了5秒的延迟流视频)
当使用Pi和PI-Cam作为监控摄像头时,有成千上万的论坛和话题讨论如何摆脱5秒钟的延迟。许多教程展示了如何使用vlc通过RTP协议对图像进行编码和流传输,这会导致〜5秒的延迟。 据我说,原因是raspivid正在将流编码为H264,而VLC必须再次对其进行解码,然后将其重新编码为任何RTP。命令行如下所示: raspivid -w 640 -h 480 -o - -t 0 |cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 第一部分告诉raspivid将视频流传输到标准输出: raspivid -w 640 -h 480 -o - -t 0 管道后面的部分告诉VLC进行拾取,并使用h264对其进行解码: cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 这种多路复用和多路复用是相当多的资源! 我在github上找到了raspicam的来源,并且我认为可以在encoder_buffer_callback方法中执行某些操作(当前在848行)以跳过编码。但是我不擅长c语言,也不熟悉视频编码,因此我不知道从哪里开始。 在Github上,我可以看到330个fork,但是它们似乎并不是专门针对raspicam的(而是针对整个userland项目)。我迷失了寻找去掉编码或实现更简单的东西(例如mjpeg)的fork的想法。 具备c和视频编解码器知识的人可以帮助我和其他专长的用户摆脱延迟吗?解决方案可能已经在其中一个分支中了,但是我花了数小时没有任何运气来寻找它。 ps我不是在寻找浏览器解决方案,但我最终希望将其流式传输到Synology,最好使用mjpeg流式传输(但不是通过网页,而是大多数商用ip-cam内置的标准mjpeg流)。第一步是摆脱h264的束缚。

3
我需要更换树莓派相机吗?
我知道这里有多个讨论此问题的线程,但是没有一个解决方案有任何不同。无论如何,当我将RPi摄像机插入B板时,会出现以下错误: mmal: No data received from sensor. Check all connections, including the Sunny one on the camera board 相机上的红灯一直亮着,但不会拍照。我已经更新并升级了所有内容。我还重新连接了相机色带的末端,以确保正确连接,但仍然没有任何改变。这是我在B +板上遇到的相同错误,我也对其进行了升级和更新。 我已经试过禁用,然后重新启用RPI相机在Raspi-Config中,切换用于1-线对销18,所述销(如图这里),和其他一些方法。 可能仅仅是色带,还是相机板本身?也许有软件解决方法? 让我知道您是否需要更多信息!

3
Pi Camera-如何创建闪光灯?
我需要用Pi相机拍照,但要照亮被摄对象。拍摄对象将在1m左右的距离,但大多数时候将处于完全黑暗的状态。因此,我需要某种闪光灯。 我只会每隔一个小时左右拍照。我在想: USB LED灯(但是我无法使用Python脚本打开/关闭此灯) 链接到GPIO引脚的一些超亮LED可以切换 是否有人做过类似的事情并乐于分享他们的经验和零件清单?
10 gpio  python  camera  raspicam 


1
从picamera捕获到numpy数组和路径,图像质量不同
从Pi Camera捕获的质量在捕获到numpy数组以及直接捕获到路径时会有所不同。前者的色调比后者更偏粉红。 这是为什么。? 我用于捕获图像的代码: from picamera import PiCamera import cv2 import time camera = PiCamera() camera.resolution = (1280, 720) img = np.empty((720, 1280, 3), dtype=np.uint8) start = time.time() camera.capture(img, "bgr") print("Trigger time: " + str(time.time() - start)) cv2.imwrite("array_capture.png", img) start = time.time() camera.capture("normal_capture.png") print("Trigger time: " + str(time.time() - start)) …
8 pi-3  raspicam  opencv 

1
Raspberry Pi相机-什么时候准备下一帧
当使用C ++或raspicam api之类的api时,可以使用grab()或类似方法对摄像机进行轮询。准备好框架后,该方法将返回。有没有一种方法可以在不抓住镜框的情况下检查相机是否准备就绪? 这可以是命令行工具,C ++调用,Python库或任何方法。 我问是因为我有4个带有4个摄像头的树莓pis,并且想在每个时间完全相同的时间拍摄逐帧视频。相机的速度不足以让我的应用程序以其他方式执行此操作。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.