AVAssetWriterInputPixelBufferAdaptor 返回空像素缓冲池
我确定我的缓冲区属性出了问题,但我不清楚是什么问题——没有很好地记录应该放在那里的内容,所以我根据 CVPixelBufferPoolCreate 和 Core Foundatio…
如何从 OpenGL 纹理创建 CVOpenGLTextureRef
我有一个使用 OpenGL 和 Core Video 的小项目设置。我渲染到 FBO 并将其用作程序其他部分的纹理,但以 CVOpenGLTextureRef 的形式传递此纹理引用会更…
从 QuickTime 电影中实时提取 YV12 (YUV420) 格式的所有视频帧的方法?
我在 QTKit 中打开了 QTMovie。 我需要实时获取 YV12 格式(kYUV420PixelFormat)的该视频的每一帧(即,我将其传递给仅接受 YV12 并且需要实时播放视…
iOS CoreVideo 内存泄漏
有人可以帮助我在 XCode 中运行 Instruments 时跟踪这些 CoreVideo 内存泄漏吗? 基本上,当我按下自定义运动 jpeg 播放器上的“录制视频”按钮时,就…
CVPixelBufferCreateWithBytes 的宽度和高度参数
似乎核心视频的 CVPixelBufferCreateWithBytes 允许宽度和高度为 320 和 480。 如果我尝试 160 和 240,则会单击图像。 但我真的很喜欢创建一个尺寸较…
iPhone:实时视频颜色信息、焦距、光圈?
有没有办法使用 AVFoundation 和 CoreVideo 实时获取颜色信息、光圈和焦距值? 让我解释一下。假设当我拍摄视频时,我想在屏幕的一小部分中采样颜色并…
如何将 CGImage 转换为 CMSampleBufferRef?
我想将 CGImage 转换为 CMSampleBufferRef 并使用 appendSampleBuffer: 方法将其附加到 AVAssetWriterInput 。我已设法使用以下代码获取 CMSampleBuff…
从 libswscale 中获取 PIX_FMT_YUYV422
我正在尝试学习在 Cocoa 中使用不同的 ffmpeg 库,并且我正在尝试在 Core Video 的帮助下显示帧。看来我已经让 CV 回调开始工作,并且它获取了我尝试…
- 共 1 页
- 1