我正在尝试使用我的RØDEiXYUSB麦克风以96kHz的速度录制.
录音没有错误,当我启动连接麦克风的应用程序时,我看到AVAudioSession以96kHz的采样率成功运行.
但是,如果我看一下光谱,很明显除了20kHz以上的重采样噪声之外什么都没有:

为了进行比较,这是使用与USB麦克风捆绑的应用程序(RØDERec)进行相同录制的频谱:

还有什么我必须做的,以原生96kHz录制?
或者也许RØDERec应用程序通过USB通过一些专有协议与麦克风通信,我在这里运气不好?

我包含了我使用的源代码:

static AudioStreamBasicDescription AudioDescription24BitStereo96000 = (AudioStreamBasicDescription) {
    .mFormatID          = kAudioFormatLinearPCM,.mFormatFlags       = kAudioFormatFlagIsPacked | kAudioFormatFlagIsSignedInteger,.mChannelsPerFrame  = 2,.mBytesPerPacket    = 6,.mFramesPerPacket   = 1,.mBytesPerFrame     = 6,.mBitsPerChannel    = 24,.mSampleRate        = 96000.0
};

- (void)setupAudioSession
{
    AVAudioSession *session = [AVAudioSession sharedInstance];
    [session setCategory:AVAudioSessionCategoryRecord error:&error];
    [session setActive:YES error:&error];
    [session setPreferredSampleRate:96000.0f error:&error];

    //I got my 96000Hz with the USB mic plugged in!
    NSLog(@"sampleRate = %lf",session.sampleRate);
}

- (void)startRecording
{
    AudioComponentDescription desc;
    desc.componentType = kAudioUnitType_Output;
    desc.componentSubType = kAudioUnitSubType_RemoteIO;
    desc.componentFlags = 0;
    desc.componentFlagsMask = 0;
    desc.componentManufacturer = kAudioUnitManufacturer_Apple;

    AudioComponent inputComponent = AudioComponentFindNext(NULL,&desc);
    AudioComponentInstanceNew(inputComponent,&audioUnit);

    AudioUnitScope inputBus = 1;

    UInt32 flag = 1;
    AudioUnitSetProperty(audioUnit,kAudioOutputUnitProperty_EnableIO,kAudioUnitScope_Input,inputBus,&flag,sizeof(flag));

    audioDescription = AudioDescription24BitStereo96000;

    AudioUnitSetProperty(audioUnit,kAudioUnitProperty_StreamFormat,kAudioUnitScope_Output,&audioDescription,sizeof(audioDescription));

    AURenderCallbackStruct callbackStruct;
    callbackStruct.inputProc = recordingCallback;
    callbackStruct.inputProcRefCon = (__bridge void *)(self);
    AudioUnitSetProperty(audioUnit,kAudioOutputUnitProperty_SetInputCallback,kAudioUnitScope_Global,&callbackStruct,sizeof(callbackStruct));

    AudioOutputUnitStart(audioUnit);
}

static Osstatus recordingCallback(void *inRefCon,AudioUnitRenderActionFlags *ioActionFlags,const AudioTimeStamp *inTimeStamp,UInt32 inBusNumber,UInt32 inNumberFrames,audiobufferlist *ioData)
{
    AudioBuffer audioBuffer;
    audioBuffer.mNumberChannels = 1;
    audioBuffer.mDataByteSize = inNumberFrames * audioDescription.mBytesPerFrame;
    audioBuffer.mData = malloc( inNumberFrames * audioDescription.mBytesPerFrame );

    // Put buffer in a audiobufferlist
    audiobufferlist bufferList;
    bufferList.mNumberBuffers = 1;
    bufferList.mBuffers[0] = audioBuffer;

    AudioUnitRender(audioUnit,ioActionFlags,inTimeStamp,inBusNumber,inNumberFrames,&bufferList);

    //I then take the samples and write them to WAV file
}

解决方法

在插入麦克风的情况下检查硬件采样率音频会话属性.还要检查所有音频单元功能错误返回值.

RemoteIO可能使用较低的输入采样率,然后重新采样到96k流.

iOS版.使用USB麦克风录制96kHz的更多相关文章

  1. iOS版.使用USB麦克风录制96kHz

    我正在尝试使用我的RDEiXYUSB麦克风以96kHz的速度录制.录音没有错误,当我启动连接麦克风的应用程序时,我看到AVAudioSession以96kHz的采样率成功运行.但是,如果我看一下光谱,很明显除了20kHz以上的重采样噪声之外什么都没有:为了进行比较,这是使用与USB麦克风捆绑的应用程序进行相同录制的频谱:还有什么我必须做的,以原生96kHz录制?或者也许RDERec应用程序通过USB通过一些专有协议与麦克风通信,我在这里运气不好?

  2. 从iOS上的麦克风输入进行语音活动检测

    我正在开发一个基于语音的AI的iOS应用程序;即它意味着从麦克风接收语音输入,将其转换为文本,将其发送到AI代理,然后通过扬声器输出返回的文本.我已经完成了所有工作,但是使用按钮开始和停止录制语音(SpeechKit用于语音识别,API.AI用于AI,亚马逊的Polly用于输出).我需要的是让麦克风始终打开,并在用户开始和结束谈话时自动开始和停止录制用户的声音.这个应用程序正在开发一个非正统的环境

  3. ios – 将音频从麦克风通过蓝牙传输到另一个iPhone

    我正在尝试将传入的麦克风音频传输到另一个iPhone.基本上一个电话,但通过蓝牙.我有音频通过AVAudioRecorder进来:然后我尝试从@martin-r从HERE–StreamReader使用StreamReader使用:然后使用以下方式将数据发送到另一台设备:我将线转换为NSData,然后使用dispatch_after0.5秒不断运行,我通过蓝牙发送到另一个设备.这似乎不起作用,我不认

  4. ios – 强制iPhone麦克风作为音频输入

    我正在开发一个iOS应用程序,需要应用程序只从iPhone内部麦克风录制音频,并在耳机播放.我想知道现在可以使用API吗?如果是这样,有人可以请你说明我该怎么做?

  5. 如何检测用户在iOS上授予麦克风权限?

    所以我需要在用户给出(或拒绝)使用麦克风的权限后调用某个函数.我已经看到了这个:但是,这仅用于检测当前状态.如果当前状态为“no”并且弹出窗口显示且用户提供权限–则不会调用该函数.那是因为在执行此操作的那一刻,权限是“否”,直到我们下次运行代码时才会调用该函数.我想要做的是在用户按下“允许”或“拒绝”后调用一个函数.谁知道怎么做?

  6. xcode – 如何在模拟器上测试iOS麦克风的使用?

    如何在IO模拟器中测试麦克风?我不认为它是通过Mac屏幕顶部的内置音频录制的,我理解.哪些选项有效?

  7. swift – 尝试通过多路连接将音频从麦克风传输到另一部手机

    任何帮助,关于此的想法/意见将非常感激.您的AVAudioPCMBuffer序列化/反序列化是错误的.Swift3的演员阵容发生了很大的变化.似乎需要比Swift2更多的复制.以下是如何在[UInt8]和AVAudioPCMBuffers之间进行转换的方法:N.B:此代码假设单声道浮点数据为44.1kHz.您可能想要更改它.

  8. 如何检测Android中是否存在麦克风?

    ..所以我想在让用户访问语音输入功能之前检测麦克风是否存在.如何检测设备上是否有麦克风.谢谢.解决方法AndroidAPI参考:hasSystemFeature

  9. android – 无法接收UsbManager.ACTION_USB_DEVICE_ATTACHED / UsbManager.ACTION_USB_DEVICE_DETACHED的广播意图

    或者告诉我如何检测广播意图是否有效,非常感谢.解决方法也许有点晚,但它可能会帮助别人.刚刚解决了检测USB设备插入的类似问题.事实证明–因为您在清单中指定了一个intent过滤器–当插入某些内容时,Android会调用onResume.您可以尝试添加以下内容:那么你也不需要在onCreate()中调用registerReceiver().还请记住,意图过滤器中的ID是十进制的.因此,您必须转换命令行工具所示的值.

  10. 检测Android设备何时分离

    我有一个Android应用程序,需要检测USB外围设备何时连接或分离.首次连接外围设备时它工作正常,但是当它随后被分离时,我没有收到任何通知(即,我没有收到动作为ACTION_USB_DEVICE_DETACHED的Intent).这是我的AndroidManifest.xml的相关部分:还可能值得注意的是,LauncherActivity仅在连接设备时启动服务,并在分离时停止服务.在任何一种情况

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部