如果一个网站仅能通过存档进行查看会不会有效解决个人小网站内容容易丢失的问题?
这里当然要允许搜索引擎爬虫, 方便被搜索引擎检索, 但直接访问就提示用户去存档并查看.
直接在大平台上写博客就行了,如果想要数据长期储存,建议用GitHub。然后如果你的博客比较火,Archive爬虫会自动抓取的,你无需担心。
如果博客质量高,网站就会火,网站火了外链就会多了。Archive爬虫就更容易爬到,爬到之后就会存档。反之,如果内容质量低,这一切就不会发生。所以先得保证你的博客质量高,访问量多了,不用担心备份问题。例如编程随想火了之后有一堆人自发备份他的博文。
推荐点写博客的平台:::
免登录:
Telegra.ph无需登录即可写文章,具体介绍请自行查询。
TG的SEO很好,但你不主动发外链它是不会主动收录的。发完文章后得在其它平台发链接,这样才能在搜索引擎搜到。
其它的服务也差不多是这样,例如各类的Pastebin服务,需要你主动发外链。
需登录:
GitHub Pages可以实现比较高的客制化,缺点是得通过CLI进行,麻烦。Cloudflare Worker也是比较麻烦,但可以做的功能更多,比如输出RSS之类的。
Google的BlogSpot也不错,不过服务太老了,好像也不支持Markdown。不在意界面可以试试,但Google风控严,账号不要被封停了。
@user66eff2f1365ab The Internet Archive discovers and captures web pages through many different web crawls. At any given time several distinct crawls are running, some for months, and some every day or longer. View the web archive through the Wayback Machine.
archive会主动自动存档有什么信息来源佐证吗?比如说archive的官网介绍页面?