在这种情况下很难理解失败

发布于 2025-02-04 03:04:22 字数 247 浏览 4 评论 0原文

给定拖鞋是每秒浮点操作,这不取决于机器的功率而不是模型以及它具有多少参数?我在这里想念什么?屏幕截图来自“效率网络:重新思考卷积神经网络的模型缩放”。谢谢。

Given FLOPS are the floating point operations per second, would that not be dependent on the power of the machine rather than the model and how many parameters it has? What am I missing here? Screenshot is from "EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks". Thanks.

EfficientNet FLOPS

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

皓月长歌 2025-02-11 03:04:22

一些硬件制造商指定 flops flops作为性能度量。另一方面,您可以计算模型的近似差值值,对于常规(不是深度)卷积层(根据 this ):

其中2适用于两种不同类型的指令:乘法和累积。

您需要记住,低脚拖值不会自动提供高性能。

Some hardware manufacturers specify FLOPS as the performance metric. On the other hand, you can calculate approximate FLOPs value for your model, for regular (not depthwise) convolutional layer it would be (according to this):

formula

where 2 is for two different types of instructions: multiplying and accumulating.

You need to keep in mind that low FLOPS value do not automatically provide high performance.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文