日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


robot.txt在SEO中的作用

在進(jìn)行網(wǎng)站優(yōu)化的時候,經(jīng)常會使用robots文件把一些內(nèi)容不想讓蜘蛛抓取,以前寫過一篇網(wǎng)站優(yōu)化robots.txt文件的運(yùn)用 現(xiàn)在寫這篇文章在補(bǔ)充一點(diǎn)點(diǎn)知識!什么是robots.txt文件

搜索引擎通過一種爬蟲spider程序(又稱搜索蜘蛛、robot、搜索機(jī)器人等),自動搜集互聯(lián)網(wǎng)上的網(wǎng)頁并獲取相關(guān)信息。

鑒于網(wǎng)絡(luò)安全與隱私的考慮,搜索引擎遵循robots.txt協(xié)議。通過根目錄中創(chuàng)建的純文本文件robots.txt,網(wǎng)站可以聲明不想被robots訪問的部分。每個網(wǎng)站都可以自主控制網(wǎng)站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內(nèi)容。當(dāng)一個搜索引擎的爬蟲訪問一個站點(diǎn)時,它會首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內(nèi)容來確定訪問的范圍。

robots.txt必須放置在一個站點(diǎn)的根目錄下,而且文件名必須全部小寫。robots.txt文件的格式

User-agent: 定義搜索引擎的類型

Disallow: 定義禁止搜索引擎收錄的地址

Allow: 定義允許搜索引擎收錄的地址

我們常用的搜索引擎類型有:

google蜘蛛:googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛:lycos_spider_(t-rex)

alltheweb蜘蛛:fast-webcrawler

inktomi蜘蛛: slurprobots.txt文件的寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC 這里定義是禁止爬尋ABC整個目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

Disallow: /*?* 禁止訪問網(wǎng)站中所有的動態(tài)頁面

Disallow: .jpg$ 禁止抓取網(wǎng)頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬去ab文件夾下面的adc.html所有文件

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網(wǎng)頁和gif格式圖片robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分

User-agent: *

Disallow: /

實(shí)例分析:淘寶網(wǎng)的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

很顯然淘寶不允許百度的機(jī)器人訪問其網(wǎng)站下其所有的目錄。

例2. 允許所有的robot訪問 (或者也可以建一個空文件 "/robots.txt" file)

User-agent: *

Disallow:

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot

Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: baiduspider

Disallow: User-agent: *Disallow: /

例5.一個簡單例子

在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。

需要注意的是對每一個目錄必須分開聲明,而不要寫成 "Disallow: /cgi-bin/ /tmp/"。

User-agent:后的*具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"這樣的記錄出現(xiàn)。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

Robot特殊參數(shù):

允許 Googlebot:

如果您要攔截除 Googlebot 以外的所有漫游器訪問您的網(wǎng)頁,可以使用下列語法:

User-agent:

Disallow:/

User-agent:Googlebot

Disallow:

Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

"Allow"擴(kuò)展名:

Googlebot 可識別稱為"Allow"的 robots.txt 標(biāo)準(zhǔn)擴(kuò)展名。其他搜索引擎的漫游器可能無法識別此擴(kuò)展名,因此請使用您感興趣的其他搜索引擎進(jìn)行查找。"Allow"行的作用原理完全與"Disallow"行一樣。只需列出您要允許的目錄或頁面即可。

您也可以同時使用"Disallow"和"Allow"。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:

User-Agent:Googlebot

Disallow:/folder1/

Allow:/folder1/myfile.html

這些條目將攔截 folder1 目錄內(nèi)除 myfile.html 之外的所有頁面。

如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用"Allow"規(guī)則允許該漫游器的訪問。例如:

User-agent:Googlebot

Disallow:/

User-agent:Googlebot-Mobile

Allow:

使用 * 號匹配字符序列:

您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目:

User-Agent:Googlebot

Disallow:/private*/

要攔截對所有包含問號 (?) 的網(wǎng)址的訪問,可使用下列條目:

User-agent:*

Disallow:/*?*

使用 $ 匹配網(wǎng)址的結(jié)束字符

您可使用 $ 字符指定與網(wǎng)址的結(jié)束字符進(jìn)行匹配。例如,要攔截以 .asp 結(jié)尾的網(wǎng)址,可使用下列條目:

User-Agent:Googlebot

Disallow:/*.asp$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,可對 robots.txt 文件進(jìn)行如下設(shè)置:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/ *?

一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。

Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。Robots Meta標(biāo)簽

Robots.txt文件主要是限制整個站點(diǎn)或者目錄的搜索引擎訪問情況,而Robots Meta標(biāo)簽則主要是針對一個個具體的頁面。和其他的META標(biāo)簽(如使用的語言、頁面的描述、關(guān)鍵詞等)一樣,Robots Meta標(biāo)簽也是放在頁面的中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內(nèi)容。

Robots Meta標(biāo)簽中沒有大小寫之分,name="Robots"表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name="BaiduSpider"。content部分有四個指令選項(xiàng):index、noindex、follow、nofollow,指令間以","分隔。

index指令告訴搜索機(jī)器人抓取該頁面;

follow指令表示搜索機(jī)器人可以沿著該頁面上的鏈接繼續(xù)抓取下去;

Robots Meta標(biāo)簽的缺省值是index和follow,只有inktomi除外,對于它,缺省值是index、nofollow。

需要注意的是:上述的robots.txt和Robots Meta標(biāo)簽限制搜索引擎機(jī)器人(ROBOTS)抓取站點(diǎn)內(nèi)容的辦法只是一種規(guī)則,需要搜索引擎機(jī)器人的配合才行,并不是每個ROBOTS都遵守的。

目前看來,絕大多數(shù)的搜索引擎機(jī)器人都遵守robots.txt的規(guī)則,而對于RobotsMETA標(biāo)簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令"archive",可以限制GOOGLE是否保留網(wǎng)頁快照。

來源:360站長平臺


Public @ 2020-01-26 16:09:04

為什么我的網(wǎng)站已經(jīng)加了robots.txt,還能在百度搜索出來?

為什么我的網(wǎng)站已經(jīng)加了robots.txt,還能在百度搜索出來?因?yàn)樗阉饕嫠饕龜?shù)據(jù)庫的更新需要時間。雖然Baiduspider已經(jīng)停止訪問您網(wǎng)站上的網(wǎng)頁,但百度搜索引擎數(shù)據(jù)庫中已經(jīng)建立的網(wǎng)頁索引信息,可能需要數(shù)月時間才會清除。另外也請檢查您的robots配置是否正確。如果您的拒絕被收錄需求非常急迫,也可以通過反饋中心反饋請求處理。來源:百度搜索資源平臺 百度搜索學(xué)堂

Public @ 2015-11-18 16:08:58

404設(shè)置:簡單的操作,卻可提高搜索引擎對網(wǎng)站的評價

| 什么是404頁面?● 錯誤的鏈接給返回404頁面● 刪除的鏈接給返回404頁面| 為什么要做404頁面?● 提高SEO友好性| 如何做404頁面?● 服務(wù)器上,寶塔面板● IDC服務(wù)器面板● 網(wǎng)站后臺(來源:搜外網(wǎng))

Public @ 2017-06-15 16:09:59

Robots文件的作用和規(guī)范寫法

控制頁面的抓取、索引是SEO優(yōu)化網(wǎng)站結(jié)構(gòu)時經(jīng)常需要用到的技術(shù)。常見的工具包括:robots文件頁面的noindex標(biāo)簽鏈接的nofollow屬性頁面的301轉(zhuǎn)向頁面的canonical標(biāo)簽等這幾個工具各有各的特定應(yīng)用場景,但都是用于控制網(wǎng)站內(nèi)部結(jié)構(gòu),之間容易混淆,還經(jīng)常需要配合使用,SEO們必須準(zhǔn)確理解這幾個工具的機(jī)制和原理,不然很容易出錯。這篇貼子討論robots文件。Robots文件的作用ro

Public @ 2012-12-30 16:09:20

robot.txt在SEO中的作用

Robots.txt 是一個網(wǎng)站管理員可通過在站點(diǎn)根目錄中放置一個名為robots.txt的文件來讓搜索引擎(及其爬蟲)知道該如何來收錄并處理某些目錄或頁面,并使索引過程更加有效更加規(guī)范。 Robots.txt 的作用是向搜索引擎解釋網(wǎng)站中哪些目錄和文件希望被搜索引擎收錄、哪些不希望收錄,以避免搜索引擎抓取到網(wǎng)站誤差的內(nèi)容。如果 robots.txt 被恰當(dāng)?shù)卦O(shè)置,可以有效提高收錄質(zhì)量和網(wǎng)站

Public @ 2023-03-03 03:00:14

更多您感興趣的搜索

0.505002s