Twitter-API:低服务器负载/API 调用的实时结果
我有一个高访问网络服务(每天超过 100.000 次访问)。 该服务加载(除其他外)来自用户的推文。现在,由于访问量较高,我遇到了 Twitter-API(使用 REST-API)的速率限制问题。我缓存了推文,但我有超过 350 个用户(每小时 350 个 API 调用)。
我听说过 Twitter 用户流,但我没有得到它。是否有使用它的教程/示例?
我通常只需要(最好是实时)获取用户的最新推文(但这需要较低的服务器负载/API 请求)。 Node.js 能很好地解决这个问题吗?你能推荐我什么?
I have a high accessing web service (over 100.000 access per day).
This services loads (among other things) the tweets from a user. Now I have problems with the Rate Limit of the Twitter-API (using REST-API) because of the high access. I cache the tweets but I have more than 350 users (350 API calls per hour).
I heard of Twitter User Streams but I didn't get it. Is there maybe a tutorial/example of using it?
I normally just need to get (at best realtime) the latest/newest tweets of a user (but this with a low server load/API requests). Would node.js be a good solution for that problem? What could you recommend me?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
下面是一个使用 Twitter 流和服务器发送事件的 NodeJS 应用程序示例:
https://github.com/chovy/nodejs-stream
Here's an example nodejs application that uses a twitter stream and server sent events:
https://github.com/chovy/nodejs-stream