日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


如何利用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化

筆者在百度站長(zhǎng)平臺(tái)檢測(cè)自己的博客時(shí),出于優(yōu)化的慣性,對(duì)博客的Rbots進(jìn)行了檢測(cè),進(jìn)而在百度搜索了WordPress博客robots的寫法設(shè)置問題,看了很多wordpress高手對(duì)robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化。

一、先來普及下robots.txt的概念:

robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不能被搜索引擎的漫游器獲取的,哪些是可以被(漫游器)獲取的。這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍,一定程度上保護(hù)站點(diǎn)的安全和隱私。同時(shí)也是網(wǎng)站優(yōu)化利器,例如屏蔽捉取站點(diǎn)的重復(fù)內(nèi)容頁(yè)面。

robots.txt目前并不是一種標(biāo)準(zhǔn),只是一種協(xié)議!所以現(xiàn)在很多搜索引擎對(duì)robots.txt里的指令參數(shù)都有不同的看待。

二、使用robots.txt需要注意的幾點(diǎn)地方:

1、指令區(qū)分大小寫,忽略未知指令,下圖是本博客的robots.txt文件在Google管理員工具里的測(cè)試結(jié)果;

2、每一行代表一個(gè)指令,空白和隔行會(huì)被忽略;

3、“#”號(hào)后的字符參數(shù)會(huì)被忽略;

4、有獨(dú)立User-agent的規(guī)則,會(huì)排除在通配“*”User agent的規(guī)則之外;

5、可以寫入sitemap文件的鏈接,方便搜索引擎蜘蛛爬行整站內(nèi)容。

6、盡量少用Allow指令,因?yàn)椴煌乃阉饕鎸?duì)不同位置的Allow指令會(huì)有不同看待。

三、WordPress的robots.txt優(yōu)化設(shè)置

1、User-agent: *

一般博客的robots.txt指令設(shè)置都是面對(duì)所有spider程序,用通配符“*”即可。如果有獨(dú)立User-agent的指令規(guī)則,盡量放在通配“*”User agent規(guī)則的上方。

2、Disallow: /wp-admin/

Disallow: /wp-content/

Disallow: /wp-includes/

屏蔽spider捉取程序文件,同時(shí)也節(jié)約了搜索引擎蜘蛛資源。

3、Disallow: /*/trackback

每個(gè)默認(rèn)的文章頁(yè)面代碼里,都有一段trackback的鏈接,如果不屏蔽讓蜘蛛去捉取,網(wǎng)站會(huì)出現(xiàn)重復(fù)頁(yè)面內(nèi)容問題。

4、Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

頭部代碼里的feed鏈接主要是提示瀏覽器用戶可以訂閱本站,而一般的站點(diǎn)都有RSS輸出和網(wǎng)站地圖,故屏蔽搜索引擎捉取這些鏈接,節(jié)約蜘蛛資源。

5、Disallow: /?s=*

Disallow: /*/?s=*

這個(gè)就不用解釋了,屏蔽捉取站內(nèi)搜索結(jié)果。站內(nèi)沒出現(xiàn)這些鏈接不代表站外沒有,如果收錄了會(huì)造成和TAG等頁(yè)面的內(nèi)容相近。

6、Disallow: /?r=*

屏蔽留言鏈接插件留下的變形留言鏈接。(沒安裝相關(guān)插件當(dāng)然不用這條指令)

7、Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

屏蔽捉取任何圖片文件,在這里主要是想節(jié)約點(diǎn)寬帶,不同的網(wǎng)站管理員可以按照喜好和需要設(shè)置這幾條指令。

8、Disallow: /?p=*

屏蔽捉取短鏈接。默認(rèn)頭部里的短鏈接,百度等搜索引擎蜘蛛會(huì)試圖捉取,雖然最終短鏈接會(huì)301重定向到固定鏈接,但這樣依然造成蜘蛛資源的浪費(fèi)。

9、Disallow: /*/comment-page-*

Disallow: /*?replytocom*

屏蔽捉取留言信息鏈接。一般不會(huì)收錄到這樣的鏈接,但為了節(jié)約蜘蛛資源,也屏蔽之。

10、Disallow: /a/date/

Disallow: /a/author/

Disallow: /a/category/

Disallow: /?p=*&preview=true

Disallow: /?page_id=*&preview=true

Disallow: /wp-login.php

屏蔽其他的一些形形色色的鏈接,避免造成重復(fù)內(nèi)容和隱私問題。

10、Sitemap:http://***.com/sitemap.txt

網(wǎng)站地圖地址指令,主流是txt和xml格式。告訴搜索引擎網(wǎng)站地圖地址,方便搜索引擎捉取全站內(nèi)容,當(dāng)然你可以設(shè)置多個(gè)地圖地址。要注意的就是Sitemap的S要用大寫,地圖地址也要用絕對(duì)地址。

上面的這些Disallow指令都不是強(qiáng)制要求的,可以按需寫入。也建議站點(diǎn)開通谷歌管理員工具,檢查站點(diǎn)的robots.txt是否規(guī)范。

好了,以上就是對(duì)利用robots.txt對(duì)WordPress博客進(jìn)行優(yōu)化的詳細(xì)內(nèi)容,希望可以幫助和我一樣剛接觸wordpress博客的同學(xué)。

文章作者:北漂書生。

來源:月光博客


Public @ 2022-02-26 15:45:05

URL鏈接優(yōu)化:網(wǎng)站各個(gè)頁(yè)面采用怎樣的URL符合SEO

優(yōu)化? 1、精簡(jiǎn)URL:URL盡量精簡(jiǎn),易讀易懂,例如使用簡(jiǎn)短的關(guān)鍵字說明頁(yè)面內(nèi)容; 2、不使用動(dòng)態(tài)參數(shù):盡量避免使用動(dòng)態(tài)參數(shù)或者復(fù)雜的URL參數(shù); 3、去除多余的詞匯:盡量刪除不必要的詞,保證URL精簡(jiǎn),易讀; 4、盡量使用短語(yǔ)匯:URL盡量采用短而且表明詞匯類別,如名詞、動(dòng)詞等; 5、構(gòu)建層次:當(dāng)有一系列相關(guān)的頁(yè)面時(shí),盡量將相關(guān)的頁(yè)面構(gòu)建成層次關(guān)系,這樣勢(shì)必對(duì)SEO搜索排名優(yōu)化有一定

Public @ 2023-02-26 19:27:34

如何利用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化

筆者在百度站長(zhǎng)平臺(tái)檢測(cè)自己的博客時(shí),出于優(yōu)化的慣性,對(duì)博客的Rbots進(jìn)行了檢測(cè),進(jìn)而在百度搜索了WordPress博客robots的寫法設(shè)置問題,看了很多wordpress高手對(duì)robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化。一、先來普及下robots.txt的概念:robots.txt(統(tǒng)一小寫)是

Public @ 2022-02-26 15:45:05

如何利用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化

1、禁止索引 /wp-admin:用于管理wordpress網(wǎng)站的控制面板,不允許百度收錄,避免流量分散。 User-agent: * Disallow: /wp-admin/ 2、禁止索引/wp-includes:WordPress中的核心文件,利用文件禁止百度爬行,提高訪問速度。 User-agent: * Disallow: /wp-includes/ 3、禁止索引/wp-c

Public @ 2023-03-02 23:00:12

更多您感興趣的搜索

0.410946s