域名预订与竞价策略:如何通过robots.txt优化SEO,确保好米不错过
域名预约/竞价,不错过好东西曾庆平SEO在上一篇文章谈到.txt概念时,留下了一个疑问:为什么曾庆平SEO的.txt写得这么复杂?
曾庆平SEO的.txt:***/.txt 这样做的目的是为了让网站对搜索引擎来说显得更加规范和权威。
1.使用.txt屏蔽相似页面或没有内容的页面。
我们知道,搜索引擎收录一个网页后,会对这个网页进行“审核”。当网页的相似度非常高时,搜索引擎就会删除两个网页之一。
如果以下两个链接内容相似,则应屏蔽第一个链接。 #
第一个有很多链接。屏蔽的时候就屏蔽/bbs/.php?并且所有这些都将被阻止。代码如:/bbs/.php?
像这样没有内容的页面也应该被屏蔽:这样的链接有很多。拦截时,只要拦截/index.php?sid=,就会全部被拦截。
https://img2.baidu.com/it/u=876537332,367562689&fm=253&fmt=JPEG&app=120&f=PNG?w=607&h=448
代码如:/index.php?sid=
2.使用.txt来阻止冗余链接。当动静共存时,一般将动态的去掉。
通常有多个链接指向网站上的同一页面。当这种情况常见时,会让搜索引擎怀疑网站的权威性。通过.txt删除非主链接。
如果以下两个链接指向同一页面,请删除第二个不太重要的链接。
曾庆平SEO
代码如:/space.php?=
需要特别注意的是,首页通常有几个链接:/index.html等,此时不要屏蔽index.html。因为index.html、index.php等是默认首页,阻塞可能会导致蜘蛛爬行紊乱。
我们需要做的是,在制作主页的内部和外部链接时,使用不带index.html的链接。这就是URL规范化的概念。
https://img1.baidu.com/it/u=2587542968,3189562860&fm=253&fmt=JPEG&app=138&f=JPEG?w=800&h=1067
3.使用.txt来阻止死链接。
死链接是指原本存在但后来因修改或更新而被删除的链接和网页。例如,原来在某个目录(假设该目录是//)的所有链接,现在都因为修改而变成了死链接,可以用.txt来屏蔽。
代码如: //
4. 使用.txt 阻止可能的“Ked”外部链接。
许多网站允许用户放置指向自己网站的链接,但过多的“k”外部链接可能会伤害自己。因此,很多将所有外部链接放到一个链接目录中,然后通过.txt统一屏蔽。
如果您还不是很清楚:的具体操作方法,可以在这里了解我之前的文章。
页:
[1]