百度搜索資源平臺(tái)-平臺(tái)工具使用手冊(cè)-robots
1、網(wǎng)站驗(yàn)證
2、普通收錄
3、快速收錄
4、死鏈提交
5、網(wǎng)站改版
6、索引量
7、流量與關(guān)鍵詞
8、抓取異常
9、抓取診斷
10、抓取頻次
11、robots
12、反饋中心
13、站點(diǎn)子鏈
14、移動(dòng)適配
15、分潤(rùn)中心
16、站點(diǎn)屬性
什么是robots文件
Robots是站點(diǎn)與spider溝通的重要渠道,站點(diǎn)通過robots文件聲明本網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
搜索引擎使用spider程序自動(dòng)訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個(gè)網(wǎng)站時(shí),會(huì)首先會(huì)檢查該網(wǎng)站的根域下是否有一個(gè)叫做 robots.txt的純文本文件,這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個(gè)robots.txt,在文件中聲明 該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
請(qǐng)注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
robots.txt文件放在哪里?
robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下。舉例來說,當(dāng)spider訪問一個(gè)網(wǎng)站(比如 http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果 Spider找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來確定它訪問權(quán)限的范圍。
網(wǎng)站 URL
相應(yīng)的 robots.txt的 URL
http://www.w3.org/
http://www.w3.org/robots.txt
http://www.w3.org:80/
http://www.w3.org:80/robots.txt
http://www.w3.org:1234/
http://www.w3.org:1234/robots.txt
http://w3.org/
http://w3.org/robots.txt
robots.txt文件的格式
robots文件往往放置于根目錄下,包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
"<field>:<optional space><value><optionalspace>"
在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細(xì)情況如下:
User-agent:該項(xiàng)的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個(gè)robot會(huì)受到"robots.txt"的限制,對(duì)該文件來說,至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則對(duì)任何robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。
Disallow:該項(xiàng)的值用于描述不希望被訪問的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項(xiàng)的值開頭的URL不會(huì)被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明允許robot訪問該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開放的。
Allow:該項(xiàng)的值用于描述希望被訪問的一組URL,與Disallow項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項(xiàng)的值開頭的URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個(gè)網(wǎng)站的所有URL默認(rèn)是Allow的,所以Allow通常與Disallow搭配使用,實(shí)現(xiàn)允許訪問一部分網(wǎng)頁同時(shí)禁止訪問其它所有URL的功能。
使用"*"and"$":Baiduspider支持使用通配符"*"和"$"來模糊匹配url。
"*" 匹配0或多個(gè)任意字符
"$" 匹配行結(jié)束符。
最后需要說明的是:百度會(huì)嚴(yán)格遵守robots的相關(guān)協(xié)議,請(qǐng)注意區(qū)分您不想被抓取或收錄的目錄的大小寫,百度會(huì)對(duì)robots中所寫的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無法生效。
robots.txt文件用法舉例
網(wǎng)站誤封Robots該如何處理
robots文件是搜索生態(tài)中很重要的一個(gè)環(huán)節(jié),同時(shí)也是一個(gè)很細(xì)節(jié)的環(huán)節(jié)。很多站長(zhǎng)同學(xué)在網(wǎng)站運(yùn)營(yíng)過程中,很容易忽視r(shí)obots文件的存在,進(jìn)行錯(cuò)誤覆蓋或者全部封禁robots,造成不必要損失!
那么如果誤操作封禁了robots怎么辦?今天我們請(qǐng)到了廈門258網(wǎng)站運(yùn)營(yíng)負(fù)責(zé)人——鄭軍偉,為我們分享網(wǎng)站robots誤封禁后該如何操作?
【案例背景】
網(wǎng)站開發(fā)2.0版本,技術(shù)選擇了在線開發(fā),為了避免搜索引擎抓取開發(fā)版本,要求技術(shù)人員設(shè)置了Robots封禁處理。2.0版本開發(fā)周期1個(gè)月,1個(gè)月后網(wǎng)站版本迭代,直接覆蓋了1.0版本,包括Robots封禁文件,2天后發(fā)現(xiàn)流量大幅下降,檢查收錄發(fā)現(xiàn)800萬收錄降至0條,關(guān)鍵詞大量掉線。
【處理方式】
1.修改Robots封禁為允許,然后到百度搜索資源后臺(tái)檢測(cè)并更新Robots。
2.在百度搜索資源后臺(tái)抓取檢測(cè),此時(shí)顯示抓取失敗,沒關(guān)系,多點(diǎn)擊抓取幾次,觸發(fā)蜘蛛抓取站點(diǎn)。
3.在百度搜索資源后臺(tái)抓取頻次,申請(qǐng)抓取頻次上調(diào)。
4.百度反饋中心,反饋是因?yàn)檎`操作導(dǎo)致了這種情況的發(fā)生。
5.百度搜索資源后臺(tái)鏈接提交處,設(shè)置數(shù)據(jù)API推送(實(shí)時(shí))。
6.更新sitemap網(wǎng)站地圖,重新提交百度,每天手動(dòng)提交一次。
以上處理完,接下來就是等待了,萬幸,2天的時(shí)間數(shù)據(jù)開始慢慢回升,到第3天基本回升到正常狀態(tài)!
【案例總結(jié)】
本次事故絕對(duì)是運(yùn)營(yíng)生涯的一次敗筆,總結(jié)反思一下,希望大家避免類似問題。
1.產(chǎn)品開發(fā)一定要避免在線開發(fā),不能為了省事不搭建開發(fā)環(huán)境。
2.產(chǎn)品迭代要有流程記錄,開發(fā)時(shí)做了那些設(shè)置處理,那些是不需要放出來的,那些是必須放出來的,要非常清楚。
3.要經(jīng)常關(guān)注百度搜索資源后臺(tái),關(guān)注相關(guān)數(shù)據(jù)變化,從數(shù)據(jù)變化中及時(shí)發(fā)現(xiàn)問題
百度搜索robots協(xié)議全新升級(jí)
9月11日,百度搜索robots全新升級(jí)。升級(jí)后robots將優(yōu)化對(duì)網(wǎng)站視頻URL收錄抓取情況。僅當(dāng)您的網(wǎng)站包含不希望被視頻搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
如您的網(wǎng)站未設(shè)置robots協(xié)議,百度搜索對(duì)網(wǎng)站視頻URL的收錄將包含視頻播放頁URL,及頁面中的視頻文件、視頻周邊文本等信息,搜索對(duì)已收錄的短視頻資源將對(duì)用戶呈現(xiàn)為視頻極速體驗(yàn)頁。此外,綜藝影視類長(zhǎng)視頻,搜索引擎僅收錄頁面URL。
詳情見:視頻極速體驗(yàn)解決方案
來源:百度搜索資源平臺(tái) 百度搜索學(xué)堂