使用 AVCaptureSession 捕获和操作麦克风音频?
虽然有很多关于如何使用 AVCaptureSession 抓取相机数据的教程,但我找不到有关如何正确处理麦克风数据的信息(即使在苹果的开发网络本身上)。
我已经实现了 AVCaptureAudioDataOutputSampleBufferDelegate,并且我收到了对我的委托的调用,但我不知道我获得的 CMSampleBufferRef 的内容是如何格式化的。缓冲区的内容是一个离散样本吗?它有什么属性?这些属性可以在哪里设置呢?
可以使用 [AVCaptureVideoDataOutput setVideoSettings:] 设置视频属性,但没有对 AVCaptureAudioDataOutput 的相应调用(没有 setAudioSettings 或类似的东西)。
While there are plenty of tutorials for how to use AVCaptureSession to grab camera data, I can find no information (even on apple's dev network itself) on how to properly handle microphone data.
I have implemented AVCaptureAudioDataOutputSampleBufferDelegate, and I'm getting calls to my delegate, but I have no idea how the contents of the CMSampleBufferRef I get are formatted. Are the contents of the buffer one discrete sample? What are its properties? Where can these properties be set?
Video properties can be set using [AVCaptureVideoDataOutput setVideoSettings:], but there is no corresponding call for AVCaptureAudioDataOutput (no setAudioSettings or anything similar).
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
它们的格式为 LPCM!您可以通过获取 AudioStreamBasicDescription 来验证这一点,如下所示:
然后检查流描述的 mFormatId。
They are formatted as LPCM! You can verify this by getting the AudioStreamBasicDescription like so:
and then checking the stream description’s mFormatId.