如何下载整个网站到本地电脑用于离线查看?

有一个做外贸的朋友让第三方建站公司给他开发了一个网站,花了几万元。做了一年多,没有什么流量,所以打算不再续费。但由于网站代码和数据库全是第三方公司在操作。所以一但不续费,网站内容就会消失。所以我建议他把网站内容下载下来,毕竟里面包含了他自己花了很多时间做的图片,PDF以及文字内容。

那么问题来了,保存一个网页,或者图片很简单,那怎么把整个网站进行复制或者保存,这里需要复制图片,PDF等所有素材?

用某鱼走的弯路

最初我通过闲鱼找了一个提供爬虫服务的人员来用Python 爬取整个网站。花了80元后,他给我下载的内容并不满意,有很多页面都没有下载到本地。所以我自己找寻了一些方法实现了整站下载 。

如何下载整个网站,包括图片, CSS, JS, PDF 等文件?

其实这里有两个非常好用的免费软件可以实现站点的本地下载。第一个是Wget, 另一个是 HTTrack,这两个软件都支持 Mac 和 Windows 电脑。

然后经过试用,发现 HTTrack 下载的内容更全,完全可以实现下载后的离线观看。下面一些我查看了的文章,讲解了大致的使用方法。感兴趣的朋友可学习用。另外这里也希望大家尊重原创,不再下载别人辛苦创作的内容。这里我也只是为了保存自己的内容而使用了这些软件。

  • https://www.sqlsec.com/2016/10/web.html
  • https://learnku.com/articles/42353
  • https://www.betterzeno.com/511/
  • https://briian.com/48162/
  • https://blog.gtwang.org/linux/linux-wget-command-download-web-pages-and-files-tutorial-examples/

 

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注