UPDATE 2016-03-15

请看这个项目:https://github.com/ooper-shlab/aurioTouch2.0-Swift.它已经移植到Swift,并包含你要找的所有答案,如果你在这里凸轮.

我做了大量的研究,并学到了很多关于FFT和加速框架.但经过几天的实验,我感到很沮丧.

我想在图中播放时显示音频文件的频谱.对于每个时间间隔,应在X轴上通过FFT计算的每个频率(在我的情况下为512个值)中显示Y轴上的数值(以红色条显示).

输出应如下所示:

我填写一个1024个样本的缓冲区,仅提取左侧通道开始.然后我做所有这些FFT的东西.

这是我的代码到目前为止

设置一些变量

- (void)setupVars  
{  
    maxSamples = 1024;

    log2n = log2f(maxSamples);  
    n = 1 << log2n;  

    stride = 1;  
    nOver2 = maxSamples/2;  

    A.realp = (float *) malloc(nOver2 * sizeof(float));  
    A.imagp = (float *) malloc(nOver2 * sizeof(float));  
    memset(A.imagp,nOver2 * sizeof(float));

    obtainedReal = (float *) malloc(n * sizeof(float));  
    originalReal = (float *) malloc(n * sizeof(float));

    setupReal = vDSP_create_fftsetup(log2n,FFT_RADIX2);  
}

进行FFT. FrequencyArray只是一个包含512个浮点值的数据结构.

- (FrequencyArry)performFastFourierTransformForSampleData:(SInt16*)sampleData andSampleRate:(UInt16)sampleRate   
{  
    NSLog(@"log2n %i n %i,nOver2 %i",log2n,n,nOver2);

    // n = 1024
    // log2n 10
    // nOver2 = 512

    for (int i = 0; i < n; i++) {
        originalReal[i] = (float) sampleData[i];
    }

    vDSP_ctoz((COMPLEX *) originalReal,2,&A,1,nOver2);

    vDSP_fft_zrip(setupReal,stride,FFT_FORWARD);

    float scale = (float) 1.0 / (2 * n);

    vDSP_vsmul(A.realp,&scale,A.realp,nOver2);
    vDSP_vsmul(A.imagp,A.imagp,nOver2);

    vDSP_ztoc(&A,(COMPLEX *) obtainedReal,nOver2);

    FrequencyArry frequencyArray;

    for (int i = 0; i < nOver2; i++) {
        frequencyArray.frequency[i] = log10f(obtainedReal[i]); // Magnitude in db???
    }

    return frequencyArray;  
}

输出看起来总是有点奇怪,虽然它有些似乎根据音乐移动.

我很高兴我来到这么远,感谢一些非常好的帖子,像这样:
Using the apple FFT and accelerate Framework

但现在我不知道该怎么办我失踪了什么

解决方法

首先,在FFT之前您不应用 window function,这将导致 spectral leakage发生频谱的拖延.

其次,您正在使用FFT输出槽的实际分量来计算dB幅度 – 您需要使用复数幅度:

magnitude_dB = 10 * log10(re * re + im * im);

iOS FFT Accerelate.framework在播放过程中绘制谱图的更多相关文章

  1. ios – 确定核心音频AudioBuffer中的帧数

    我正在尝试访问iPhone/iPad上的音频文件的原始数据.我有以下代码,这是我需要的路径的基本开始.但是,一旦我有了一个AudioBuffer,我就不知道该怎么做了.基本上我不知道如何判断每个缓冲区包含多少帧,因此我无法从它们中可靠地提取数据.我是处理原始音频数据的新手,所以我对如何最好地读取AudioBuffer结构的mData属性有任何建议.我在过去也没有做过很多关于void指针的事情,所以在这种情况下对它的帮助也会很棒!

  2. iOS – 生成并播放无限简单的音频(正弦波)

    我正在寻找一个非常简单的iOS应用程序,它带有一个启动和停止音频信号的按钮.信号只是一个正弦波,它将在整个播放过程中检查我的模型,并相应地改变音量.我的困难与任务的不确定性有关.我理解如何构建表格,填充数据,响应按钮按下等等;然而,当谈到只是无限期地继续时,我有点卡住了!任何指针都会很棒!

  3. ios – 核心音频离线渲染GenericOutput

    等正在产生这些问题.尝试努力,它会工作.不要放弃:-).核心音频在处理低级音频时非常强大和有用.这是我从最近几周学到的东西.享受:-D…

  4. 如何正确使用iOS(Swift)SceneKit SCNSceneRenderer unprojectPoint

    那么,如果那架飞机与摄像机是正交的–那就是你的帮助.那么你需要做的就是在那架飞机上投射一点:现在,您可以在三维视图中拥有世界起源的位置归一化深度空间.要将2D视图空间中的其他点映射到此平面上,请使用此矢量中的z坐标:这让您在世界空间中将点击/分接位置映射到z=0平面,适合用作节点的位置,如果要向用户显示该位置.

  5. 用swift和Accelerate的快速傅里叶变换(FFT)来实现对波形的整形

    Swift提供了一个机会,通过方法重载或为Accelerate框架进行包装后,可以让交互更加容易。Accelerate框架提供了另一个解决方案,叫做快速傅里叶变换,关于这个方案这里有一个很好的解释。我们在例子AccelerateFunctions.playground中实现了这个原型,你可以对照这个例子来看下面的内容。从这里开始Accelerate将帮助我们完成工作。这里我们要使用到Accelerate的vDSP库,它正好有这类功能的方法。

  6. Swift:如何使用sizeof?

    为了在使用Swift时与CAPI集成,我需要使用sizeof函数。在C,这很容易。在Swift,我在一个迷宫式的错误。为什么是这个,我如何解决它?如果你想要anInt变量的大小,你可以将dynamicType字段传递给sizeof。

  7. Swift是否保证类和结构中字段的存储顺序?

    在C中,您在结构中定义字段的顺序是它们将在内存中实例化的顺序.考虑到内存对齐,下面的结构在内存中的大小为8字节,如图所示,但如果字段反转则只有6个字节,因为不需要任何对齐填充.这种排序保证存在于C结构,C类(和结构)和Objective-C类中.对于Swift类和结构中的字段,存储顺序是否同样有保证?或者,编译器是否在编译时为您重新安排它们?

  8. 泛型 – 如何为所有Integer类型创建一个通用的整数到十六进制函数?

    非常简单的解决方案是将输入值合并到.toIntMax()中的IntMax中:注意:这仅适用于0…UInt32.max值.已添加:这适用于所有可用的整数类型/值.>.toIntMax()将T转换为具体的整数类型.>/16而不是>>4.

  9. swift – SceneKit – 自定义几何体不显示

    我应该看到2个黄色三角形,但我什么也看不见.我用它如下:我看到其他节点具有非自定义几何体.怎么了?

  10. Android:如何移动输出声音的音高(实时)

    我是Android开发的新手.我正在寻找任何将音高变换应用于输出声音的方法(实时).但我找不到任何开始的意义.我发现这个topic,但我仍然不知道如何应用这个.有什么建议?

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部