日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


搜索問答劇場(chǎng)【七】“robots文件”常見問題解析

哈嘍大家好!

【搜索問答劇場(chǎng)】最新一集如期而至,平小雕又帶著滿滿的知識(shí)干貨回來啦!準(zhǔn)備好迎接知識(shí)的洗禮了嘛?

第五集【搜索問答劇場(chǎng)】中,跟大家提到了【Robots】工具。

本期就來詳細(xì)教大家如何靈活地使用【Robots】工具,以及如何正確設(shè)置網(wǎng)站整體的抓取范圍。

一、了解robots文件

1、Q:什么是robots文件?

A:robots文件用于指定spider在網(wǎng)站上的抓取范圍,在文件中可以聲明網(wǎng)站中不想被搜索引擎抓取或指定被抓取的資源。

2、Q:robots.txt文件怎么寫?

文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

"<field>:<optional space><value><optionalspace>"

在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細(xì)情況如下:

User-agent:該項(xiàng)的值用于描述搜索引擎robot的名字。

Disallow:該項(xiàng)的值用于描述不希望被訪問的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項(xiàng)的值開頭的URL不會(huì)被 robot訪問。

Allow:該項(xiàng)的值用于描述希望被訪問的一組URL,與Disallow項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項(xiàng)的值開頭的URL 是允許robot訪問的。

如果"/robots.txt"不存在或者為空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開放的。

說明:百度會(huì)嚴(yán)格遵守robots的相關(guān)協(xié)議,請(qǐng)注意區(qū)分您不想被抓取或收錄的目錄的大小寫,百度會(huì)對(duì)robots中所寫的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無法生效。

robots.txt文件舉例:

3、Q:robots.txt文件放在哪里?

A:robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下。網(wǎng)站對(duì)應(yīng)robots文件的URL:

詳情可參考《什么是robots文件》

二、如何使用【Robots】工具

1、Q:【Robots】工具的作用?

A:站長(zhǎng)可以通過搜索資源平臺(tái)【Robots】工具來創(chuàng)建、校驗(yàn)、更新robots.txt文件,或查看網(wǎng)站robots.txt文件是否成功生效的情況。

2、Q:使用【Robots】工具的注意事項(xiàng)?

A:【Robots】工具目前支持48k的文件內(nèi)容檢測(cè)。同時(shí)請(qǐng)保證網(wǎng)站的robots.txt文件不要過大,目錄最長(zhǎng)不超過250個(gè)字符。

robots文件更新和提交后,百度蜘蛛不是立即調(diào)整停止/開放抓取的,搜索引擎需要逐漸完成robots.txt的更新。

3、Q:robots.txt中設(shè)置了禁止百度收錄網(wǎng)站的內(nèi)容,為何還出現(xiàn)在百度搜索結(jié)果中?

A:可能存在以下問題:

(1)robots文件不能夠有效訪問。站長(zhǎng)可以在資源平臺(tái)-【Robots】工具查看robots文件的訪問情況。

(2)文件暫未生效。robots文件在結(jié)果中生效一般需要1-2周,可以關(guān)注。

4、【Robots】工具校驗(yàn)提示解讀?

A:可能出現(xiàn)以下情況:

顯示錯(cuò)誤碼404,robots文件可能無法被訪問。

顯示錯(cuò)誤碼301,robots文件可能存在跳轉(zhuǎn)。

顯示錯(cuò)誤碼500,robots頁面訪問失敗。

以上情況時(shí),建議自查robots文件情況針對(duì)性優(yōu)化后,重新提交校驗(yàn)。

5、Q:robots文件誤封禁,如何處理?

A:(1)修改robots文件,封禁改為允許。

(2)在搜索資源平臺(tái)檢測(cè)并更新robots文件,若顯示抓取失敗,可以多嘗試點(diǎn)擊幾次,觸發(fā)蜘蛛抓取站點(diǎn)。

(3)關(guān)注【抓取頻次】數(shù)據(jù)情況,可以適當(dāng)調(diào)整抓取頻次。

(4)可以使用【鏈接提交】,主動(dòng)提交相關(guān)資源鏈接。

來源:百度搜索資源平臺(tái)


Public @ 2015-05-15 15:16:25

提交Sitemap

Sitemap(站點(diǎn)地圖)是一種文件,站長(zhǎng)可通過該文件列出網(wǎng)站上的網(wǎng)頁,將網(wǎng)站內(nèi)容的組織結(jié)構(gòu)告知搜索引擎。神馬等搜索引擎網(wǎng)頁抓取工具會(huì)讀取此文件,以便更加智能地抓取網(wǎng)站內(nèi)容理想狀況下,如果您的網(wǎng)站網(wǎng)頁間關(guān)聯(lián)得當(dāng),神馬的網(wǎng)頁抓取工具便能夠發(fā)現(xiàn)其中的大多數(shù)網(wǎng)頁。即便如此,提交站點(diǎn)地圖仍有助于搜索引擎更加有效地抓取網(wǎng)站,尤其是當(dāng)網(wǎng)站符合以下某個(gè)條件時(shí):1.網(wǎng)站為新建網(wǎng)站且指向該網(wǎng)站的外部鏈接不多。搜索引

Public @ 2022-11-08 16:09:48

網(wǎng)站URL顯示品牌名字怎么弄

要在網(wǎng)站URL中顯示品牌名稱,您需要使用SEO優(yōu)化的最佳實(shí)踐和技術(shù),例如: 1. 在網(wǎng)站URL中包含品牌名稱。例如,如果品牌名稱是"ABC",則可以將URL設(shè)計(jì)為:www.example.com/ABC/product-name。 2. 使用301 重定向從舊URL到新URL,以確保搜索引擎能夠正確地索引和顯示您的品牌名稱。 3. 在Meta標(biāo)簽中包含品牌名稱,并確保它與網(wǎng)站內(nèi)容相關(guān)且自然。

Public @ 2023-06-14 10:00:20

robots是什么?

robots是網(wǎng)站跟爬蟲間的協(xié)議,用簡(jiǎn)單直接的txt格式文本方式告訴對(duì)應(yīng)的爬蟲被允許的權(quán)限,也就是說robots.txt是搜索引擎中訪問網(wǎng)站的時(shí)候要查看的第一個(gè)文件。當(dāng)一個(gè)搜索蜘蛛訪問一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網(wǎng)站上所有沒有被口令保護(hù)的頁面。搜索引擎通過一

Public @ 2017-11-12 16:09:33

禁止搜索引擎收錄的方法

禁止搜索引擎收錄的方法什么是robots.txt文件?搜索引擎使用spider程序自動(dòng)訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個(gè)網(wǎng)站時(shí),會(huì)首先會(huì)檢查該網(wǎng)站的根域下是否有一個(gè)叫做 robots.txt的純文本文件,這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個(gè)robots.txt,在文件中聲明該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分

Public @ 2016-10-21 16:09:20

更多您感興趣的搜索

0.452664s