/robots.txt
文件,加入规则阻止相关URL被索引,并注意清除CDN缓存。作者通过百度搜索验证了这一解决方案的有效性。今天登陆必应站长后台,发现了一个Top Insights,说我网站是有”许多页面具有相同标题“,一开始,我以为是说我网站上的一些内容与互联网上的内容重复,我觉得这倒也没啥。但是有1.6K也就有点离谱了!
必应官方对于这个问题的描述如下:
具有重复的标题标记值可能会对网站的 SEO 性能产生负面影响。标题标记是定义网页标题并汇总其内容的 HTML 元素。它们对搜索引擎和用户都很重要,因为它们可帮助搜索引擎了解页面内容,并帮助用户决定是否在搜索结果中单击该页面。
当网站上的多个页面具有相同的标题标记时,可能会对搜索引擎和用户造成混淆。搜索引擎可能难以确定哪个页面与给定查询最相关,而用户可能难以区分搜索结果中的页面。这可能会降低点击率、减少流量和降低搜索引擎排名。
若要避免这些问题,请务必确保网站上的每个页面都具有唯一的描述性标题标记,以准确反映页面内容。这有助于提高网站的 SEO 性能,并为访问者提供更好的用户体验。
于是我就打开了下面的”出现以下错误的页面“里的一些链接,一下子就发现了端倪!怎么一个页面收录了一堆”?replyTo=“的东西。
在/robots.txt
里面添加一个规则:
User-agent: *
Disallow: /admin/
Disallow: /*?replyTo=*
(使用了CDN的话记得清除一下缓存!!!)
同时我也在百度里面进行了测试,确保robots.txt是生效的。
剩的就是慢慢等着吧。
感觉这个是必应自己的问题,但是需要咱们站长自己去解决,就很不爽。
当然更快的办法是添加阻止URL,但是似乎得一个个添加