rtsp

获取RTSP播放的帧时间戳

我正在使用gstreamer在qt上制作简单的相机播放视频播放器,可以从OSD中获取帧日期/时间还是仅获取时间?图片上的时间戳的例子,目前与hikvision合作,试图在用wireshark转储的RTP数据包上找到它,但它只与第一帧时间戳相关。

delphi – 如何测试网络设备的有效RTSP流?

我正在开发一个使用VLCMediaPlayer插件通过RTSP流式传输视频/音频的项目.我想提供一个扫描网络RTSP摄像头的选项.我确信这将包括查询所有网络设备的列表,并测试端口554.所有这些我都可以照顾.但是,一旦我做到这一点,我如何通过端口554测试设备,以确保它是一个有效的RTSP相机?我假设在Winsock中应该有一些能够做到这一点,但我应该如何测试套接字连接并确保它是一个有效的RTSP流,我可以连接到?

visual-c – 使用ffmpeg输出RTSP流

我正在尝试使用ffmpeg库将视频流从我的应用程序发送到媒体服务器(在本例中为wowza).我已经能够反过来使用RTSP流,但是我在编写RTSP流时遇到了一些问题.我找到了一些例子,并试图利用相关的位.代码如下.我尽可能地简化了它.我只想将一个H264比特流发送到wowza服务器并且它可以处理.当我尝试发送数据包时,无论何时在av_interleaved_write_frame函数中,我都会得到“

视频 – 通过RTSP或RTP在HTML5中流式传输

HTML5视频/音频标签是否支持rtsp或rtp?如果没有,最简单的解决方案是什么?也许下拉到一个VLC插件或类似的东西。解决方法技术上“是”(但不是真的…)HTML5的标签是协议不可知–它不在乎。您将协议放在src属性中作为URL的一部分。因为HTML5的早期,我期待经常改变支持。

使用Android 2.x实时音频流

我需要在具有2.x及更高版本的设备上播放实时流.This声明在Android2.x设备上播放实时流是不可能的.我在这里有什么选择?特别是我对流式音频感兴趣–我应该选择哪种格式以及哪种协议?解决方法尝试此示例用于RTSP流,用于视频更改代码以支持音频编辑:使用Android中的MediaPlayer实时音频流媒体Android中的实时音频流,从1.6sdk开始变得如此简单.在setDataSource()API中直接传递url,音频将播放没有任何问题.完整的代码段是,

RTSP / RTMP视频流客户端iOS

对我来说都很陌生.现在,似乎从Live555/FFMPEG构建静态二进制文件是解决我问题的唯一方法.如果是这样,任何人都可以给我一个简单的快速入门指南或链接到博客/示例有人在那里吗?哦,是的,这恰好是我的第一个iPhone应用程序,第一次在Objective-C.令人敬畏的第一个项目,是吗?解决方法DFURTSPPlayer是GitHub上的一个工作示例.将不得不仔细检查许可问题,但有了这个,它是一个开始RTSP的好地方.

ffmpeg restream rtsp到mjpeg

我有几台IP摄像机可以通过rtsp传输720X264视频.在Android上查看时,流非常不可靠.如果超过2个连接,它们也会失败.我有一个ubuntu服务器,我可以使用它连接和restream作为mjpeg或其他东西.有很多不同的命令,但它们似乎都涉及转码视频.我怎样才能简单地将实时rtspFeed作为mjpeg重新播放而不对视频本身做任何事情?

在Ubuntu系统基于ROS使用废旧Android手机摄像头搭建监控设备

在Ubuntu系统基于ROS使用废旧Android手机摄像头搭建监控设备之前的博文介绍了一些使用android手机获取ROS中传感器,图像以及控制机器人小车的案例;这里主要介绍如何让ROS获取手机摄像头数据并使用,这样就不用usb_cam等,并且大部分都有手机;实验成本低,简洁易行。手机端需要安装RTSPServer等IPCamera类型APP;PC配置为Ubuntu16.04+ROSKinetic,。