所以我从网络回调(voip app)获得3个独立阵列中的原始YUV数据.根据我的理解,根据 here,你无法使用CVPixelBufferCreateWithPlanarBytes创建IOSurface支持的像素缓冲区

Important: You cannot use CVPixelBufferCreateWithBytes() or
CVPixelBufferCreateWithPlanarBytes() with
kCVPixelBufferIOSurfacePropertiesKey. Calling
CVPixelBufferCreateWithBytes() or CVPixelBufferCreateWithPlanarBytes()
will result in CVPixelBuffers that are not IOSurface-backed

因此,您必须使用CVPixelBufferCreate创建它,但是如何将数据从回调传输回您创建的CVPixelBufferRef?

- (void)videoCallBack(uint8_t *yPlane,uint8_t *uPlane,uint8_t *vPlane,size_t width,size_t height,size_t stride yStride,size_t uStride,size_t vStride)
    NSDictionary *pixelAttributes = @{(id)kCVPixelBufferIOSurfacePropertiesKey : @{}};
    CVPixelBufferRef pixelBuffer = NULL;
    CVReturn result = CVPixelBufferCreate(kcfAllocatorDefault,width,height,kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange,(__bridge CFDictionaryRef)(pixelAttributes),&pixelBuffer);

我不确定之后该做什么?最终我想把它变成一个CIImage,然后我可以使用我的GLKView来渲染视频.人们如何在创建数据时将数据“放入”缓冲区?

解决方法

我想出来了,这是相当微不足道的.以下是完整的代码.唯一的问题是我收到了BSxpcMessage收到的消息错误:连接中断,视频显示需要一段时间.
NSDictionary *pixelAttributes = @{(id)kCVPixelBufferIOSurfacePropertiesKey : @{}};
CVPixelBufferRef pixelBuffer = NULL;
CVReturn result = CVPixelBufferCreate(kcfAllocatorDefault,&pixelBuffer);

CVPixelBufferLockBaseAddress(pixelBuffer,0);
uint8_t *yDestPlane = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer,0);
memcpy(yDestPlane,yPlane,width * height);
uint8_t *uvDestPlane = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer,1);
memcpy(uvDestPlane,uvPlane,numberOfElementsForChroma);
CVPixelBufferUnlockBaseAddress(pixelBuffer,0);

if (result != kCVReturnSuccess) {
    DDLogWarn(@"Unable to create cvpixelbuffer %d",result);
}

CIImage *coreImage = [CIImage imageWithCVPixelBuffer:pixelBuffer]; //success!
CVPixelBufferRelease(pixelBuffer);

我忘了添加代码来交错两个U和V平面,但这不应该太糟糕.

从YUV创建CVPixelBuffer并支持IOSurface的更多相关文章

  1. 从YUV创建CVPixelBuffer并支持IOSurface

    我不确定之后该做什么?最终我想把它变成一个CIImage,然后我可以使用我的GLKView来渲染视频.人们如何在创建数据时将数据“放入”缓冲区?解决方法我想出来了,这是相当微不足道的.以下是完整的代码.唯一的问题是我收到了BSxpcMessage收到的消息错误:连接中断,视频显示需要一段时间.我忘了添加代码来交错两个U和V平面,但这不应该太糟糕.

  2. android – 片段着色器的YUV到RGB转换

    我在Android中将相机预览从YUV格式转换为RGB时遇到了问题.转换的目的是应用一些效果.我尝试通过片段着色器进行转换,因为本机代码的转换很慢(大约14fps).我使用的参考是http://jyrom.tistory.com/m/post/view/id/187.我尝试将此代码移植到Android平台,但结果是黑绿色矩形.但是,我可以通过输出看到某种形式.你可以试着帮我解决这个问题吗?我相信这

  3. RGB和YUV 多媒体编程基础详细介绍

    这篇文章主要介绍了 RGB和YUV 多媒体编程基础详细介绍的相关资料,需要的朋友可以参考下

  4. iOS6:如何使用YUV到RGB的转换功能从cvPixelBufferref到CIImage

    从iOS6开始,Apple通过此调用提供了使用原生YUV到CIImage的规定initWithCVPixelBuffer:options:在核心图像编程指南中,他们提到了这个功能TakeadvantageofthesupportforYUVimageiniOS6.0andlater.CamerapixelbuffersarenativelyYUVbutmostimageprocessingalgo

  5. ios – 使用YUV颜色空间将CMSampleBufferRef转换为UIImage?

    所述那么有没有办法将CMSampleBufferRef转换为UIImage并使用YUV颜色空间?

  6. c – YUV – > RGB转换可以硬件加速吗?

    >这个转换必须在cpu上完成,还是能以某种方式卸载到GPU进行并行处理?埃里克.解决方法转换可能是GPU处理的一个很好的选择,但是你要对转换的数据做什么?

  7. objective-c – 需要在OpenGl中显示YUV的帮助

    我无法显示NVV格式的原始YUV文件.我可以显示一个选定的框架,但是它仍然主要是黑色和白色,具有一定的粉红色和绿色.这是我的输出如何alttexthttp://i32.tinypic.com/hv0vih.png无论如何,这里是我的程序如何工作.(这是在可可/objective-c中完成的,但是我需要你的专家关于程序算法的建议,而不是语法.)在程序执行之前,YUV文件存储在名为“test.yuv”

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部