用于网页“另存为”的 C# 工具和离线浏览

发布于 2024-11-10 03:42:14 字数 104 浏览 3 评论 0原文

C# 中是否有任何开源工具可以将网页“另存为”或“保存”并下载所有内容,以便稍后我可以执行离线浏览?

编辑: 附带说明一下,我希望该工具也能够让我保存 hotmail 中的内容。

Is there any opensource tool in C# that can do a webpage "save as" or "save" and download all contents, so that later I can perform an offline browsing?

EDIT:
As a side note, I want the tool to allow me to save contents from hotmail as well.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

避讳 2024-11-17 03:42:14

有一个名为 HTTrack Website Copier 的工具可以为您完成此操作。

如果您喜欢编程解决方案,我曾经创建过一个 C# 库来抓取和下载网站。

There is (e.g.) a tool called HTTrack Website Copier that will do this for you.

If you like a programmatic solution, I once created a library in C# to crawl and download websites.

亚希 2024-11-17 03:42:14

我不知道有什么具体的工具,但是,.NET 框架有用于发出 HTTP 请求的类,并且 CodePlex 上提供了一个名为“Html Agility Pack”的开源库,它可以很好地解析 Html。通过组合这些工具,您可能可以相当轻松地自己编写一个工具。我过去曾使用 Html Agility Pack 来获取 Daily Dilbert 漫画,只是为了看看它是否可以完成(当然其他人已经完成了),并且 Html Agility Pack 足够好,如果我没记错的话服务。

I don't know of any specific tool however, the .NET framework has classes for making HTTP requests and an open source library called the "Html Agility Pack" is available on CodePlex which does a good job of parsing Html. By combining these tools, you could probably fairly easily write one yourself. I've used the Html Agility Pack myself in the past to obtain the Daily Dilbert cartoon just to see if it could be done (someone else had already done it of course), and the Html Agility Pack was good enough for that, if memory serves.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文