我正在寻找一个非常简单的iOS应用程序,它带有一个启动和停止音频信号的按钮.信号只是一个正弦波,它将在整个播放过程中检查我的模型(音量的实例变量),并相应地改变音量.

我的困难与任务的不确定性有关.我理解如何构建表格,填充数据,响应按钮按下等等;然而,当谈到只是无限期地继续(在这种情况下,声音)时,我有点卡住了!任何指针都会很棒!

谢谢阅读.

解决方法

这是一个简单的应用程序,它将按需生成频率.你还没有指定是做iOS还是OSX,所以我已经选择了OSX,因为它稍微简单一些(没有搞乱音频会话类别).如果你需要iOS,你可以通过查看音频会话类别基础知识并交换RemoteIO音频单元的默认输出音频单元来找出丢失的位.

请注意,这样做的目的纯粹是为了演示一些核心音频/音频单元的基础知识.如果你想开始变得比这更复杂,你可能想要查看AUGraph API(也是为了提供一个干净的例子,我没有做任何错误检查.在处理Core Audio时总是要进行错误检查).

您需要将AudioToolBox和AudioUnit框架添加到项目中才能使用此代码.

#import <AudioToolBox/AudioToolBox.h>

@interface SWAppDelegate : NSObject <NSApplicationDelegate>
{
    AudioUnit outputUnit;
    double renderPhase;
}
@end

@implementation SWAppDelegate

- (void)applicationDidFinishLaunching:(NSNotification *)aNotification
{
//  First,we need to establish which Audio Unit we want.

//  We start with its description,which is:
    AudioComponentDescription outputUnitDescription = {
        .componentType         = kAudioUnitType_Output,.componentSubType      = kAudioUnitSubType_DefaultOutput,.componentManufacturer = kAudioUnitManufacturer_Apple
    };

//  Next,we get the first (and only) component corresponding to that description
    AudioComponent outputComponent = AudioComponentFindNext(NULL,&outputUnitDescription);

//  Now we can create an instance of that component,which will create an
//  instance of the Audio Unit we're looking for (the default output)
    AudioComponentInstanceNew(outputComponent,&outputUnit);
    AudioUnitinitialize(outputUnit);

//  Next we'll tell the output unit what format our generated audio will
//  be in. Generally speaking,you'll want to stick to sane formats,since
//  the output unit won't accept every single possible stream format.
//  Here,we're specifying floating point samples with a sample rate of
//  44100 Hz in mono (i.e. 1 channel)
    AudioStreamBasicDescription ASBD = {
        .mSampleRate       = 44100,.mFormatID         = kAudioFormatLinearPCM,.mFormatFlags      = kAudioFormatFlagsNativeFloatPacked,.mChannelsPerFrame = 1,.mFramesPerPacket  = 1,.mBitsPerChannel   = sizeof(Float32) * 8,.mBytesPerPacket   = sizeof(Float32),.mBytesPerFrame    = sizeof(Float32)
    };

    AudioUnitSetProperty(outputUnit,kAudioUnitProperty_StreamFormat,kAudioUnitScope_Input,&ASBD,sizeof(ASBD));

//  Next step is to tell our output unit which function we'd like it
//  to call to get audio samples. We'll also pass in a context pointer,//  which can be a pointer to anything you need to maintain state between
//  render callbacks. We only need to point to a double which represents
//  the current phase of the sine wave we're creating.
    AURenderCallbackStruct callbackInfo = {
        .inputProc       = SineWaveRenderCallback,.inputProcRefCon = &renderPhase
    };

    AudioUnitSetProperty(outputUnit,kAudioUnitProperty_SetRenderCallback,kAudioUnitScope_Global,&callbackInfo,sizeof(callbackInfo));

//  Here we're telling the output unit to start requesting audio samples
//  from our render callback. This is the line of code that starts actually
//  sending audio to your speakers.
    AudioOutputUnitStart(outputUnit);
}

// This is our render callback. It will be called very frequently for short
// buffers of audio (512 samples per call on my machine).
Osstatus SineWaveRenderCallback(void * inRefCon,AudioUnitRenderActionFlags * ioActionFlags,const AudioTimeStamp * inTimeStamp,UInt32 inBusNumber,UInt32 inNumberFrames,audiobufferlist * ioData)
{
    // inRefCon is the context pointer we passed in earlier when setting the render callback
    double currentPhase = *((double *)inRefCon);
    // ioData is where we're supposed to put the audio samples we've created
    Float32 * outputBuffer = (Float32 *)ioData->mBuffers[0].mData;
    const double frequency = 440.;
    const double phaseStep = (frequency / 44100.) * (M_PI * 2.);

    for(int i = 0; i < inNumberFrames; i++) {
        outputBuffer[i] = sin(currentPhase);
        currentPhase += phaseStep;
    }

    // If we were doing stereo (or more),this would copy our sine wave samples
    // to all of the remaining channels
    for(int i = 1; i < ioData->mNumberBuffers; i++) {
        memcpy(ioData->mBuffers[i].mData,outputBuffer,ioData->mBuffers[i].mDataByteSize);
    }

    // writing the current phase back to inRefCon so we can use it on the next call
    *((double *)inRefCon) = currentPhase;
    return noErr;
}

- (void)applicationWillTerminate:(NSNotification *)notification
{
    AudioOutputUnitStop(outputUnit);
    AudioUnitUninitialize(outputUnit);
    AudioComponentInstancedispose(outputUnit);
}

@end

您可以随意调用AudioOutputUnitStart()和AudioOutputUnitStop()来开始/停止生成音频.如果要动态更改频率,可以传入指向包含renderPhase double和另一个表示所需频率的struct的指针.

在渲染回调中要小心.它是从实时线程调用的(不是来自与主运行循环相同的线程).渲染回调受到一些相当严格的时间要求的限制,这意味着你的回调中不应该做很多事情,例如:

>分配内存
>等待互斥锁
>从磁盘上的文件中读取
> Objective-C消息传递(是的,认真的.)

请注意,这不是执行此操作的唯一方法.我只是用这种方式演示了它,因为你已经标记了这个核心音频.如果您不需要更改频率,可以将AVAudioPlayer与包含正弦波的预制声音文件一起使用.

还有Novocaine,它隐藏了很多这种冗长.您还可以查看Audio Queue API,它与我编写的Core Audio示例非常相似,但是您可以将它与硬件分离得更多(即,它对您在渲染回调中的行为方式不太严格).

iOS – 生成并播放无限简单的音频(正弦波)的更多相关文章

  1. ios – 确定核心音频AudioBuffer中的帧数

    我正在尝试访问iPhone/iPad上的音频文件的原始数据.我有以下代码,这是我需要的路径的基本开始.但是,一旦我有了一个AudioBuffer,我就不知道该怎么做了.基本上我不知道如何判断每个缓冲区包含多少帧,因此我无法从它们中可靠地提取数据.我是处理原始音频数据的新手,所以我对如何最好地读取AudioBuffer结构的mData属性有任何建议.我在过去也没有做过很多关于void指针的事情,所以在这种情况下对它的帮助也会很棒!

  2. iOS – 生成并播放无限简单的音频(正弦波)

    我正在寻找一个非常简单的iOS应用程序,它带有一个启动和停止音频信号的按钮.信号只是一个正弦波,它将在整个播放过程中检查我的模型,并相应地改变音量.我的困难与任务的不确定性有关.我理解如何构建表格,填充数据,响应按钮按下等等;然而,当谈到只是无限期地继续时,我有点卡住了!任何指针都会很棒!

  3. ios – 核心音频离线渲染GenericOutput

    等正在产生这些问题.尝试努力,它会工作.不要放弃:-).核心音频在处理低级音频时非常强大和有用.这是我从最近几周学到的东西.享受:-D…

  4. 如何正确使用iOS(Swift)SceneKit SCNSceneRenderer unprojectPoint

    那么,如果那架飞机与摄像机是正交的–那就是你的帮助.那么你需要做的就是在那架飞机上投射一点:现在,您可以在三维视图中拥有世界起源的位置归一化深度空间.要将2D视图空间中的其他点映射到此平面上,请使用此矢量中的z坐标:这让您在世界空间中将点击/分接位置映射到z=0平面,适合用作节点的位置,如果要向用户显示该位置.

  5. 用swift和Accelerate的快速傅里叶变换(FFT)来实现对波形的整形

    Swift提供了一个机会,通过方法重载或为Accelerate框架进行包装后,可以让交互更加容易。Accelerate框架提供了另一个解决方案,叫做快速傅里叶变换,关于这个方案这里有一个很好的解释。我们在例子AccelerateFunctions.playground中实现了这个原型,你可以对照这个例子来看下面的内容。从这里开始Accelerate将帮助我们完成工作。这里我们要使用到Accelerate的vDSP库,它正好有这类功能的方法。

  6. Swift:如何使用sizeof?

    为了在使用Swift时与CAPI集成,我需要使用sizeof函数。在C,这很容易。在Swift,我在一个迷宫式的错误。为什么是这个,我如何解决它?如果你想要anInt变量的大小,你可以将dynamicType字段传递给sizeof。

  7. Swift是否保证类和结构中字段的存储顺序?

    在C中,您在结构中定义字段的顺序是它们将在内存中实例化的顺序.考虑到内存对齐,下面的结构在内存中的大小为8字节,如图所示,但如果字段反转则只有6个字节,因为不需要任何对齐填充.这种排序保证存在于C结构,C类(和结构)和Objective-C类中.对于Swift类和结构中的字段,存储顺序是否同样有保证?或者,编译器是否在编译时为您重新安排它们?

  8. 泛型 – 如何为所有Integer类型创建一个通用的整数到十六进制函数?

    非常简单的解决方案是将输入值合并到.toIntMax()中的IntMax中:注意:这仅适用于0…UInt32.max值.已添加:这适用于所有可用的整数类型/值.>.toIntMax()将T转换为具体的整数类型.>/16而不是>>4.

  9. swift – SceneKit – 自定义几何体不显示

    我应该看到2个黄色三角形,但我什么也看不见.我用它如下:我看到其他节点具有非自定义几何体.怎么了?

  10. Win32 C/C++从内存缓冲区加载图像

    这是初始化代码:

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部