貌似有两种方法,一种是像互联网档案馆那样整个网页都下载下来

还有就是用爬虫采集想要部分

有哪些开源的软件可以做到一或二呢,例如我可能觉得一篇文章不错,直接备份整个网页感觉不利于本地分类保存,仅保存内容的话有些图片代码视频等处理会麻烦点

user6713cfd6b554e 回答 3 天 前