自动从网络检索一些信息
我需要从网上检索一些信息。例如,我可以访问weather.com 搜索我的邮政编码以获取包含温度或其他内容的HTML 文件。我需要编写一个 python 脚本来自动执行此操作。
我认为有两种方法可以做到这一点。
- 运行wget下载网页,解析它得到我想要的信息。
- 如果网站提供网络服务,只需运行它即可获取信息。
这些是我的问题。
- 我应该在 python 中使用什么函数来实现 Web 服务?
- 我如何知道网站是否提供什么网络服务?
- 如果未提供 Web 服务,是否有比运行 wget 和 parse 更好的方法?
如果你能给我一些例子,那就更好了。
I need to retrieve some info from web. For example, I can visit weather.com to search my zip code to get HTML file that contains the temperature or something. I need to make a python script to do this automatically.
I think there are two ways to do this.
- Run wget to download the web page, parse it to get the information I want.
- If the website provides the web service, just run it to get the info.
And these are my questions.
- What function do I use for the web service in python?
- How can I know if a web site provides what web service?
- If web service is not provided, is there a better way than run wget and parse?
If you can give me some examples, that would be much better.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
wget 部分绝对是不必要的, urllib 和 httplib 都可以让你下载网页;他们的文档页面有示例
The wget part is definitely unnecessary, urllib and httplib both let you download a web page; their doc pages have examples