貌似有两种方法,一种是像互联网档案馆那样整个网页都下载下来

还有就是用爬虫采集想要部分

有哪些开源的软件可以做到一或二呢,例如我可能觉得一篇文章不错,直接备份整个网页感觉不利于本地分类保存,仅保存内容的话有些图片代码视频等处理会麻烦点

user6720cf3bb9f69 回答 2024年10月29日