長沙網站優化公司

[SEO培訓课程]如何使用Robots来处理網站死链接?

浏覽:/ 2019-03-03

 覺得今天很有必要跟大家分享一下Robots與死鏈的關系,這幾天已經遇到了好幾個SEOer在混淆這兩個概念了,老是把Robot的應用與死鏈的處理,搭配到一起去使用,Seven足足碼字好幾百,聊天記錄都說了兩頁了,回頭還是問了句,“怎麽在robot中寫死鏈提交”,我在想一定是我表達的方式不對,下面給大家捋捋思路:

4cb6be544f92bc9c.jpg

 
現在談談死鏈與Robot的關系,很多人就把死鏈提交到Robots定義裏面,認爲用Disallow來禁止百度蜘蛛的抓取,這個想法是好的,出發點無非是不想讓百度收錄自己網站的死鏈,但是有沒有考慮到快照問題,就是這個鏈接是個死鏈,但是在網站收錄裏面還有快照存在,你就會想,是不是百度還能抓取到我的死鏈,所以你就在Robot裏面加了N多行的Disallow,來禁止百度收錄你的死鏈,seven一直不太認可這麽一個做法,其實這完全是一個本末倒置的做法。
 
 
需要搞清楚死链是如何产生的?死链是由于文件删除或者路径修改产生的不可访问的链接,那么你需要做的第一步是完全清除死链,第二步是提交死链,而Robots的禁止收录,是因为路径存在,但是你不希望被搜索引擎收录,比如網站后台或者用户中心一类,所以才加的Disallow去禁止收录,死链是访问不到的链接,如果你第一步清除完了,存在这个Disallow的必要吗?因为你不完全清除死链,势必影响用户体验。

閱讀"[SEO培訓课程]如何使用Robots来处理網站死链接?"的人還閱讀

上一篇:網站优化怎么做?具体的網站优化流程有哪些重要步骤?

下一篇:返回列表