如何获得更多的饲料项目?
如何获取 Feed 的下一页或更多结果?
例如,当我转到 Security Now feed 页面时,没有“下一个”链接任何类型,并且“page=100”的 url 参数不执行任何操作:
http://leoville.tv/podcasts /sn.xml
我只得到 1 页大约 20 集的结果。 但是我的 Google 阅读器可以成功检索早于该时间的剧集。
How would I get the next page or more results for a feed?
For example, when I go to Security Now feed page, there is no "next" link of any kind and the url parameter of "page=100" does nothing:
http://leoville.tv/podcasts/sn.xml
I get only 1 page of results of about 20 episodes. However my Google Reader can successfully retrieve episodes that are earlier than that.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
事实上,Google Reader 确实会缓存这些项目,并且不可能对 RSS2、RSS 或 Atom 提要进行分页(除非它们具有 rel=next 链接,但它们似乎都没有)。
但是,我们可以利用现有的 Google Reader 基础设施,通过一些工作来检索包含 200 个项目的列表!
鉴于上述播客网址,我们通过以下方式检索最新的 200 集:
所以我们有:
有一个非常有洞察力的逆向工程 google-reader API 项目,位于 http: //code.google.com/p/pyrfeed/wiki/GoogleReaderAPI
Indeed it is true that Google Reader caches the items and it is NOT possible to paginate on RSS2, RSS or Atom feeds (unless they have rel=next link, which none of them seem to have).
However, we can leverage the existing Google Reader infrastructure, with some work, to retrieve a list of, say 200 items!
Given the above podcast url we retrieve the latest 200 episodes by:
So we have:
There is a very insightful reverse-engineered google-reader API project located at http://code.google.com/p/pyrfeed/wiki/GoogleReaderAPI
Google 阅读器缓存 RSS 条目。如果他们不允许,您就无法从实际提要中获得更多信息。
Google reader caches RSS entries. You can't get any more from the actual feed if they don't allow for it.