我正在使用canAddOutput:确定是否可以将AVCaptureMovieFileOutput添加到AVCaptureSession,并且发现canAddOutput有时返回NO,并且大部分返回YES.有没有办法找出为什么没有退回?还是消除导致NO退回的情况的方法?或者我可以做的任何事情会阻止用户看到间歇性的故障?

一些进一步的注意事项:这在30次通话中大概发生一次.由于我的应用程序未启动,它只在一个设备上进行测试:运行7.1.2的iPhone 5

解决方法

这里是文档的引用(对canAddOutput的讨论:)
You cannot add an output that reads from a track of an asset other than the asset used to initialize the receiver.

解释这将有助于您(请检查您的代码是否与本指南匹配,如果您做的很好,不应该触发错误,因为基本上canAddOuput:检查兼容性).

AVCaptureSession
用于组织Device Input和Output之间的连接,类似于DShow的连接过滤器.如果可以连接输入和输出,启动后,数据将从输入读取.
几个要点:
a)AVCaptureDevice,设备的定义,两个摄像头设备.
b)AVCaptureInput
c)AVCaptureOutput
输入和输出不是一对一的,如视频输出,而视频音频输入.
切换相机之前和之后:

AVCaptureSession * session = <# A capture session #>; 
[session beginConfiguration]; 
[session removeInput: frontFacingCameraDeviceInput]; 
[session addInput: backFacingCameraDeviceInput]; 
[session commitConfiguration];

添加捕捉INPUT:
要将捕获设备添加到捕获会话中,可以使用AVCaptureDeviceInput的实例(具体实现)
抽象AVCaptureInput类的子类).捕获设备输入管理设备的端口.

NSError * error = nil; 
AVCaptureDeviceInput * input = 
[AVCaptureDeviceInput deviceInputWithDevice: device error: & error]; 
if (input) { 
   // Handle the error appropriately. 
}

添加输出,输出分类:

要从捕获会话获取输出,您添加一个或多个输出.输出是具体的实例
AVCaptureOutput的子类
你用:
AVCaptureMovieFileOutput输出到电影文件
AVCaptureVideoDataOutput如果要从捕获的视频处理帧
AVCaptureAudioDataOutput如果要处理正在捕获的音频数据
AVCaptureStillImageOutput如果要捕获带有附带元数据的静态图像
您可以使用addOutput:将输出添加到捕获会话.
您检查捕获输出是否兼容
与现有会话使用canAddOutput :.
您可以根据需要添加和删除输出
会话正在运行.

AVCaptureSession * captureSession = <# Get a capture session #>; 
AVCaptureMovieFileOutput * movieInput = <# Create and configure a movie output #>; 
if ([captureSession canAddOutput: movieInput]) { 
   [captureSession addOutput: movieInput]; 
} 
else {
   // Handle the failure. 
}

保存视频文件,添加视频文件输出:

使用AVCaptureMovieFileOutput对象将影片数据保存到文件. (AVCaptureMovieFileOutput
是AVCaptureFileOutput的具体子类,它定义了大部分的基本行为.)您可以配置
电影文件输出的各个方面,如记录的最大持续时间,或最大文件
尺寸.如果剩余的磁盘空间少于一定数量,您也可以禁止录制.

AVCaptureMovieFileOutput * aMovieFileOutput = [[AVCaptureMovieFileOutput alloc] 
init]; 
CMTime maxDuration = <# Create a CMTime to represent the maximum duration #>; 
aMovieFileOutput.maxRecordedDuration = maxDuration; 
aMovieFileOutput.minFreediskSpaceLimit = <# An appropriate minimum given the quality 
of the movie format and the duration #>;

处理预览视频帧数据,每个帧查看器数据可用于后续的高级处理,如人脸检测等.
AVCaptureVideoDataOutput对象使用委托来销售视频帧.
你设置委托使用
setSampleBufferDelegate:queue :.
除了代表之外,您还可以指定一个串行队列
委托方法被调用.您必须使用串行队列来确保将帧传递给委托
按正确的顺序.
你不应该传递由dispatch_get_current_queue返回的队列
不能保证当前队列正在运行的线程.您可以使用队列来修改
优先考虑交付和处理视频帧.
对于帧的数据处理,对于大小(图像大小)和处理时间限制必须有限制,如果处理时间太长,底层传感器将不会向布局者发送数据和回调.

您应该将会话输出设置为应用程序的最低实际分辨率.
设置输出
达到比所需废物处理循环更高的分辨率,并且不必要地消耗功率.
你必须确保你的执行
captureOutput:didOutputSampleBuffer:fromConnection:能够在其中处理一个示例缓冲区
分配给框架的时间量.如果需要太长时间,并且您按住视频帧AVFoundation
将停止传送框架,而不仅是您的代表,还有其他输出,如预览图层.

处理捕获过程:

AVCaptureStillImageOutput * stillImageOutput = [[AVCaptureStillImageOutput alloc] 
init]; 
NSDictionary * outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG,AVVideoCodecKey,nil]; 
[StillImageOutput setoutputSettings: outputSettings];

能支持不同的格式也支持直接生成jpg流.
如果要捕获JPEG图像,则通常不应指定您自己的压缩格式.代替,
您应该让静态图像输出为您做压缩,因为它的压缩是硬件加速的.
如果需要图像的数据表示,可以使用jpegStillImageNSDataRepresentation:to
即使修改了图像的元数据,也可以获取一个NSData对象,而不需要重新压缩数据.

相机预览显示:

您可以向用户提供使用AVCaptureVideoPreviewLayer进行录制的预览
目的. AVCaptureVideoPreviewLayer是CALayer的子类(请参阅Core Animation Programming Guide),您不需要任何输出来显示预览.

AVCaptureSession * captureSession = <# Get a capture session #>; 
CALayer * viewLayer = <# Get a layer from the view in which you want to present the 
The preview #>; 
AVCaptureVideoPreviewLayer * captureVideoPreviewLayer = [[AVCaptureVideoPreviewLayer 
alloc] initWithSession: captureSession]; 
[viewLayer addSublayer: captureVideoPreviewLayer];

通常,预览图层的行为与渲染树中的任何其他CALayer对象(请参阅Core Animation)编程指南).您可以像您一样缩放图像并执行转换,旋转等会有任何层.一个区别是,您可能需要设置图层的方向属性来指定如何它应该旋转来自相机的图像.此外,在iPhone 4上,预览图层支持镜像(这是预览前置摄像头时的默认设置).

ios – `[AVCaptureSession canAddOutput:output]`间歇地返回NO.我能找出原因吗的更多相关文章

  1. 在iOS上,缓存绘制的屏幕图像并显示它的最快方法是什么?

    我没有让drawRect每次重绘数千个点,我认为有几种方法可以“在屏幕上缓存图像”和任何其他绘图,我们将添加到该图像,并在drawRect时显示该图像:>使用BitmapContext并绘制到位图,并在drawRect中绘制此位图.>使用CGLayer并在drawRect中绘制CGLayer,这可能比方法1快,因为此图像缓存在图形卡中(并且它不会计入iOS上“内存警告”的RAM使用情况?

  2. CALayer autoresizingMask不适用于iOS SDK?

    我注意到,iOSSDK上的CALayer没有autoresizingMask属性.我不确定自动调整动画子图层的方法“setFrame:”的自定义重载是否可以正常工作.有没有使用UIView的替代方案?解决方法您可以使用calayer的layoutSublayers功能.

  3. ios – – [CALayer setNeedsDisplayInRect:]导致整个图层被重绘

    我正在继承CALayer以提供我自己的方法绘图.为了优化,我调用–[MyLayersetNeedsdisplayInRect:]而不是–[MyLayersetNeedsdisplay].在绘图方法中,我得到了应该通过CGContextGetClipBoundingBox()重绘的矩形.如果我使用这个层作为UIView的基础层,每个东西都按预期工作.一旦我将自定义图层用作其他CALayer的子图层,

  4. ios – 如何在使用隐式动画为CALayer设置动画时继承动画属性

    我试图使用隐式动画在CALayer上设置自定义属性的动画:在-actionForKey:方法我需要返回动画,负责插值.当然,我必须以某种方式告诉动画如何检索动画的其他参数.有关如何实现这一点的任何想法?

  5. ios – 在球体表面SceneKit上写文字?

    我想知道是否有一种方法可以在SceneKit中沿着球体对象的表面写入文本.我知道如果我有一个图像,我会在表面上放置纹理并实现这种效果,但我想知道我是否可以在球体表面上以某种方式动态添加文本.任何的想法?

  6. ios – CALayer优化?

    有关如何提高性能的任何建议?处理大量图层的最佳做法?让图层在单独的view.layer中开始动画比以前添加的图层更好吗?

  7. ios – 我们什么时候应该使用CATransformLayer?

    我已经阅读了文档和几个示例,但仍然无法理解何时使用CATransformlayer.正常的CALayer会在z=0平面上展平所有内容,但这不是CATransformlayer所做的吗?

  8. ios – 如何使CvVideoCamera不自动旋转?

    我的CvVideoCamera自动旋转,我不希望它.Thishasbeenraisedonthebugtracker,但一段时间没有活动.解决方法子类CvVideoCamera,并且只是删除旋转代码.我希望我的方向永远是肖像,所以这很简单:MyCvVideoCamera.hMyCvVideoCamera.m

  9. iOS:是否在OpenGL上实现Core Graphics?

    我发现一个图表显示了在OpenGL上执行的CoreGraphics,另一个将它放在OpenGL旁边.我会认为,苹果会聪明地给每个图形硬件的平等访问,但是再次,我不太了解他们正在使用的图形芯片…也许是3D一直吗?这里有人知道具体细节吗?

  10. ios – 确定CALayer已经旋转了多少

    我有一个程序,其中CALayer必须旋转到某个值.如何确定CALayer的当前旋转?

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部