ffmpeg 对图像序列的各个帧进行计时
我有一个 webp-s 的图像序列输入(由于各种原因)连接在一个文件中。我可以完全控制单个文件格式,并且如果存在适当的容器,可以将其重新格式化为容器(IVF 等)。
我希望 ffmpeg 能够正确地消耗此输入并为每个单独的帧计时(考虑首先显示 5 秒,接下来 3 秒,7 秒,12 秒等)并输出视频(mp4)。
我当前的方法是使用 image2pipe
或 webp_pipe
后跟一个 loop
过滤器列表,但我很好奇是否有任何可靠的替代方案我可以使用一个简单的格式/容器来减少或完全避免 ffmpeg 过滤器指令,因为总共可能有数百个或更多。
ffmpeg -filter_complex "...movie=input.webps:f=webp_pipe,loop=10:1:20,loop=10:1:10..." -y out.mp4
我知道 concat 分路器,但在我的情况下,为每个输入图像创建一个单独的文件并不是一个选项。
我尝试过 IVF 格式,它适用于 vp8 帧,但似乎不起作用接受 webp。欢迎有一种替代方案,但对于我来说,存在太多的替代方案,无法研究每一个,并且将不胜感激。
I am having an image sequence input of webp-s concatenated (for various reasons) in a single file. I have a full control over the single file format and can potentially reformat it as a container (IVF etc.) if a proper exists.
I would like ffmpeg to consume this input and time properly each individual frame (consider first displayed for 5 seconds, next 3 seconds, 7, 12 etc.) and output a video (mp4).
My current approach is using image2pipe
or webp_pipe
followed by a list of loop
filters, but I am curious if there are any solid alternatives potentially a simple format/container I could use in order to reduce or completely avoid ffmpeg filter instructions as there might be hundreds or more in total.
ffmpeg -filter_complex "...movie=input.webps:f=webp_pipe,loop=10:1:20,loop=10:1:10..." -y out.mp4
I am aware of concat
demuxer but having a separate file for each input image is not an option in my case.
I have tried IVF format which works ok for vp8 frames, but doesnt seem to accept webp. An alternative would be welcomed, but way too many exists for me to study each single one and help would be appreciated.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论