我已经看到了很多有关如何将视频从服务器流式传输到android设备的信息,但是关于反过来,ala Qik的信息却很少。有人可以在这里向我指出正确的方向,或者给我一些有关如何解决这个问题的建议吗?
我已经看到了很多有关如何将视频从服务器流式传输到android设备的信息,但是关于反过来,ala Qik的信息却很少。有人可以在这里向我指出正确的方向,或者给我一些有关如何解决这个问题的建议吗?
Answers:
我主持了一个开源项目,以启用Android手机到IP摄像机:
http://code.google.com/p/ipcamera-for-android
从LocalSocket提取原始视频数据,并在流传输之前首先检查MP4的MDAT MOOV。实况视频以FLV格式打包,并且可以通过具有内置Web服务器的Flash视频播放器进行播放:)
ndk-build
。有关更多信息,请阅读NDK文档。
花了我一些时间,但是我终于设法制作了一个能够做到这一点的应用程序。如果您有兴趣,请查看google代码页:http : //code.google.com/p/spydroid-ipcamera/ 我在代码中添加了大量评论(主要是查看CameraStreamer.java),因此应该很不言自明。困难的部分实际上是理解RFC 3984并为打包过程实现适当的算法。(根据rfc,此算法实际上将MediaRecorder产生的mpeg4 / h.264流转换为不错的rtp流)
再见
我也在研究这个问题,虽然我没有一个好的解决方案,但我确实设法挖掘了SIPDroid的视频代码:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
我建立了一个名为Kickflip的开源SDK,以使来自Android的流式视频成为一种轻松的体验。
该SDK演示了如何使用Android 4.3的MediaCodec API将设备硬件编码器的数据包直接定向到FFmpeg,以进行RTMP(带有librtmp)或H.264 / AAC的HLS流传输。它还演示了实时OpenGL效果(标题,色度键,淡入淡出)和背景录制。
非常感谢SO,尤其是fadden。
这是有关将android摄像机视频流式传输到网页的完整文章。
我可以将实时摄像头视频从移动设备发送到服务器。使用此链接, 请参阅链接
请参考上面的链接。该链接中有一个示例应用程序。只是您需要在RecordActivity.class中设置服务URL。
例如: ffmpeg_link =“ rtmp:// yourserveripaddress:1935 / live / venkat”;
我们可以使用该链接发送H263和H264类型的视频。
这几乎不是一个完整的答案,但是webRTC可能正是您想要的。以下是一些实际使用中的webRTC的示例:http : //www.webrtc.org/reference-apps
如果您想要Android特定的代码,它就存在!http://www.webrtc.org/native-code/android
Mux(我的公司)有一个开源Android应用程序,可将RTMP流传输到服务器,包括设置摄像头和用户交互。它被构建为流传输到Mux的实时流API,但可以轻松地流到任何RTMP入口点。
根据您的预算,您可以使用可以将图像发送到服务器的Raspberry Pi相机。我在这里添加了两个教程,您可以在其中找到更多详细信息:
本教程向您展示如何使用Raspberry Pi相机并在Android设备上显示图像
这是第二个教程,您可以在其中找到有关相机和android设备之间的实时视频流的一系列教程。