發(fā)現(xiàn)robots.txt文件存在的限制指令后怎么辦?
發(fā)布日期:2022-08-18 || 瀏覽次數(shù):
當(dāng)我們有時候site網(wǎng)址查看網(wǎng)站快照,可能會查看到百度結(jié)果會顯示“由于該網(wǎng)站的robots.txt文件存在限制指令,系統(tǒng)無法提供該頁面的內(nèi)容描述”,我們可能會覺得奇怪,怎么會出現(xiàn)這種問題呢?難道是搜索引擎的蜘蛛出問題了嗎?當(dāng)然不是的,出現(xiàn)這種情況,大多數(shù)時間是由于我們網(wǎng)站根目錄下robots.txt的文件限制了網(wǎng)站的快照,搜索引擎蜘蛛為了遵循網(wǎng)站的robots.txt約定,沒有將除title的其他內(nèi)容展示出來。
那么發(fā)現(xiàn)了這個問題我們應(yīng)該怎么辦呢?首先,找到根目錄下的robots.txt,用記事本打開,將仔細查看里面的disallow語句,找到disallow:/,對這個就是限制了蜘蛛抓取整個網(wǎng)站目錄的指令,把這行去掉,保存退出。然后我們要到百度站長工具里面,重新提交robots文件,目的是為了告訴搜索引擎,我的robots文件已經(jīng)做了修改,目錄限制抓取已經(jīng)解除。這樣,等下次快照更新,你的網(wǎng)站可能就會正常了,當(dāng)然,有時候百度更新是很慢的,這時候你也不要著急,可能要過一段時間才能正常收錄并抓取,只要耐心等待即可。