gstreamer

获取RTSP播放的帧时间戳

我正在使用gstreamer在qt上制作简单的相机播放视频播放器,可以从OSD中获取帧日期/时间还是仅获取时间?图片上的时间戳的例子,目前与hikvision合作,试图在用wireshark转储的RTP数据包上找到它,但它只与第一帧时间戳相关。

c – 如何在基于GStreamer的Qt中实现视频窗口小部件?

有人可以指出我正确的方向怎么做?注意:这个问题类似于我之前发布的关于如何连接Qt和传入RTP流的问题.这似乎是相当具有挑战性的.这个问题会更容易回答我的想法.更新1Patrice建议使用libVLC是非常有用的.以下是VLC网站上的代码更清晰一些:SampleforQt+libVLC.但是,我的原始问题仍然存在:如何将GStreamer连接到Qt小部件?

c – 向gstreamer应用程序添加opencv处理

我试图执行以下操作:使用gstreamer接收视频流并使用opencv进行处理.我找到了几个解决方案,其中之一是将视频写入(从gstreamer)fifo中,然后使用opencv读取它.(OPTION3这里MJPEGstreaminganddecoding).问题是我不能打开管道.cvCreateFileCapture从不返回.这是我写的部分代码:程序堆栈在最后一行.PS:我使用的是opencv2

c – g_main_loop_run阻止Qthread,不允许停止视频

我为gstreamer创建了一个单独的课程来流式传输视频.该类通过使用movetoThread()在单独的线程上运行.我正在使用Qt5.5进行开发.当我在主线程上发出startcommand时,Qthread启动,gstreamer使用g_main_loop_run来流式传输视频.这工作绝对不错.但是不知何故g_main_loop_run阻止线程,当我发出信号来停止主线程的视频时,它不会在gstreamer类中执行插槽.有人能告诉我如何解决这个问题?

c – 使用cap_gstreamer错误编译opencv失败

我试图在slackware4.1上编译opencv.但是我每次都遇到以下错误.编译的配置报告如下:我从下面的链接查看了opencv要求http://docs.opencv.org/doc/tutorials/introduction/linux_install/linux_install.html#linux-installation我需要ffmpeg或libav包,这是我在标准slackware

javascript – node-gyp – 找不到库头

我正在尝试在我的节点插件中使用gstreamer框架.我有以下内容到我的binding.gyp,但是当我运行build命令时,控制台声明找不到标题.当我在node-gyp之外编译我的gstreamer文件时,它会成功编译.有没有人看到我的绑定文件有问题?

Android Studio中的Gstreamer示例

或者我只是制作一个Android.mk文件,如果是的话,在哪里?如何告诉Android工作室在哪里可以找到我的Android.mk文件?

无法为Android教程构建GStreamer

我在尝试构建GStreamerAndroid教程时遇到了很多问题.我的环境是:>MacOSX7>AndroidSDK版本17>AndroidNDK8d我能够在Eclipse和命令行中构建和运行NDK示例.我已经下载了http://cdn.gstreamer.com/android/arm/gstreamer-sdk-android-arm-debug-2012.11.tar.bz2并将GSTREA

OpenWebRTC iOS随机崩溃gstglcontext

我正在开发一个WebRTC项目.我选择OpenWebRTC在我的项目中实现.我已经使它适用于Web和iOS.我在asp.netMVC中开发了一个信令服务器,并将coTurn服务器用作转弯服务器.除了一个问题,一切都很好.iOS应用程序随机崩溃,但异常EXC_BAD_ACCESSexception:(gstglcontext(14):EXC_BAD_ACCESS(code=1,address=0x3