书接上回,继续说建站,这次我们主要讲如何让搜索引擎发现我们,也就是收录我们,这里我假设你已经做好了静态站点,不管你使用的什么静态网站生成工具.为什么要让搜索引擎收录我们的网站?这个问题其实都不是问题,如果搜索引擎都不收录我们的网站,试问别人如何得知你有个网站呢?都不知道你的网站了,谈何访问量?因为只有搜索引擎收录了你,用户在搜索相应的关键词的时候,搜索引擎才能把你的网站推荐给对方.那如何让搜索引擎收录呢?搜索引擎自身有爬虫,收录网站基本就两种方式.你等它来爬你的网站,爬虫会定期的光顾你的网站,看看你哪些页面是可以爬的,它会挨个遍历,等待收录.你主动告诉它,通过前面一篇文章里讲到的sitemap.xml文件,这里有篇文章介绍了这个文件的格式.你需要自己编写下这个文件,但是现在一般的静态生成器都有对应的sitemap插件,你可以自行搜索下,一般都有的.基本就这 2 种方式了,个人觉得第二种更高效,也更方便,推荐大家都使用第二种方案.这里有个新的东西出现了,叫做robots.txt,是一个文本文件,一般放在你的静态站点的根目录,格式在这里有说明.简单来讲它的作用就是告诉搜索引擎,哪些网址可以被收录,哪些不能被收录.有人可能要问了,怎么还有不想被收录的?这里有 Google 能够收录的文件类型,你可以看到它能收录的东西太多了,必定会有一些是你不愿意被爬虫爬到的,这时就需要这个robots.
...
继续阅读
(36)