WEB开发中。下载服务器上面的报表。怎么防止数据量过大导致超时的场景
问题
需要服务端生成报表,由于数据量过大。往往会导致下载过程中504错误。
下载流程已经最优化了。
目前解决方案
前台点击下载报表,发起一个异步请求。后台处理完数据以后。把数据通过邮箱的方式发给下载者。
有没有其它更加好的办法,可以解决这个问题?谢谢。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(5)
谢谢各位的回答。
这边我自己总结了一下,根据我自己的实际情况主要
5.优化流程,采取dubbo批量数据请求。采取dubbo异步请求。多线程处理数据。多个dubbo服务合并(性能优化)
最直接的办法便是,压缩数据(例如导出时进行压缩),调整 CGI 超时时间。这其中,可以考虑节省 CGI 进程(因为即使输出成果已经完成,按照题主的说明,fast_cgi 的 response buffer 肯定是远远小于这次输出的大小),在最后输出的过程上用其他服务(例如直接用nginx)代劳。
其实,例如在问题中的这种从产品设计的角度解决问题在我看来最优解,实时下载真的是那么必要吗?
看你的意思,超时的原因不是产生报表耗时太久,而是因为报表文件过大造成的。
3种做法
1.压缩报表文件,例如:tar,gzip,zip……
2.修改web服务器的超时时间设定。
3.导出的文件放到另外一个目录用其他工具下载,例如:ftp,samba,sftp……
边读数据,边写数据,比如分页读写,这样就不会超时了
换个思路,你的所有问题都在超时上面! 为什么超时,因为等待时间过长。那为什么要等待呢???
你可以发出请求,服务器端执行,告诉用户,正在执行,表示就成功了。然后就是用户接受邮件的等待。
这个时候,你可以告诉用户需要等待,或者加一个消息通知,成功后通知用户