在谷歌地图/可视化上可视化大量数据

发布于 2024-09-16 04:20:06 字数 143 浏览 3 评论 0原文

我有一个 json 文件,其中包含大约 480mb 的地理位置点。我想知道是否有人知道在尝试可视化数据时可以使用的良好“模式”。我遇到的问题是数据必须从一开始就加载到谷歌地图中。这导致了各种明显的问题。

我不必通过谷歌来做到这一点。这似乎是显而易见的选择。

I have a json file thats roughly 480mb of geolocation points. I was wondering if someone knows of a good 'pattern' to use when trying to visualise the data. The problem I'm encountering is that the data has to be loaded into Google maps from the get go. This is causing all kinds of obvious issues.

I don't have to do this through google. It just seemed like the obvious choice.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

静若繁花 2024-09-23 04:20:06

有了这么多数据,在服务器端而不是客户端处理它可能更有意义。您可以使用适当的数据点设置 Geoserver。使用 OpenLayers,您可以将 Geoserver 中的点叠加在 Google 地图上,甚至可能叠加在您自己的地图上(如果)你想把谷歌地图全部删掉。然后,繁重的处理在服务器上进行,并且仅图像显示在浏览器中。这减少了网络流量和浏览器必须执行的处理量。如果您设置 Geoserver 来进行缓存,那么服务器甚至不需要非常努力地工作。

With that much data, it may make more sense to handle it on the server side instead of client side. You could set up Geoserver with your appropriate data points. Using OpenLayers, you could overlay your points from Geoserver on top of Google Maps or potentially even on top of your own map if you want to cut out Google Maps all together. The heavy duty processing then happens on the server and only images are displayed in the browser. This cuts down on network traffic and the amount of processing the browser has to do. If you set up Geoserver to do caching, the server won't even have to work very hard.

遇见了你 2024-09-23 04:20:06

这实际上取决于这是什么类型的数据。

如果这些是折线或多边形的点,您可能会尝试对这些点进行编码 ( http://code.google.com/apis/maps/documentation/utilities/polylinealgorithm.htmlhttp://code.google.com/apis/maps/documentation/utilities/polylineutility.html)。还有一些函数可用于对点进行编码。这将显着减少数据的大小。

您可能还需要考虑根据地图上的缩放级别加载数据。 (我不确定“必须从一开始就加载数据”是什么意思 - 您可以根据事件等将数据加载到地图中......)。

上面提到的 Fusion 表仅接受 100MB 的数据。

如果您更详细地解释数据的性质以及您想要做什么,我可以更具体。希望这有帮助。

It really depends on what kind of data this is.

If these are points for polylines or polygons you might try to encode the points (http://code.google.com/apis/maps/documentation/utilities/polylinealgorithm.html and http://code.google.com/apis/maps/documentation/utilities/polylineutility.html). There are also functions which you can use to encode the points. This will significantly reduce the size of your data.

You might also want to consider loading data depending on zoom level on the map. (I am not sure what you mean by "data has to be loaded from the get go" - you can load the data into the map depending on events, etc...) .

Fusion tables mentioned above will only accept 100MB of data.

I can be more specific if you explain the nature of your data and what you trying to do in more details. Hope this helps.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文