日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是網(wǎng)站通過極低的成本運營,制造出大量和內(nèi)容相識但參數(shù)不同的動態(tài)URL ,像一個無限循環(huán)的“黑洞”將蜘蛛困住,蜘蛛花費太多的時間在網(wǎng)站,浪費了大量資源抓取的網(wǎng)頁為無效網(wǎng)頁。

如果你的網(wǎng)站存在蜘蛛黑洞現(xiàn)象,盡快的處理好,蜘蛛黑洞不利于網(wǎng)站的收錄,也會影響搜索引擎對網(wǎng)站的評分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的篩選結果頁基本都是使用靜態(tài)鏈接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

當用戶選擇不同排序后,會自動生成帶有不同參數(shù)的動態(tài)鏈接,即使選擇是同一種排序條件,生成的參數(shù)也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把帶有不同參數(shù)的結果排序頁面使用robots規(guī)則拒絕,告知搜索引擎,讓搜索引擎只抓取篩選結果頁,為用戶和搜索引擎節(jié)省時間。

Robots文件寫法中Disallow: /*?* 禁止訪問網(wǎng)站中所有包含問號 (?) 的網(wǎng)址,通過這種方式,如果網(wǎng)站的無效頁面不希望被搜索引擎收錄,可以屏蔽掉低質(zhì)量的頁面,告訴搜索引擎哪些頁面可以抓取,有效的避免黑洞的形成。

來源:搜外網(wǎng)


Public @ 2014-02-24 16:09:26

5個方面制作好站內(nèi)鏈接

站內(nèi)鏈接的合理建設是SEO的重要技術之一,它的優(yōu)化能使網(wǎng)站整體獲得搜素引擎的價值認可,特別是百度。如何網(wǎng)站把站內(nèi)鏈接做得足夠好,能大大提升關鍵詞在百度中的排名。下面盧松松講從5個方面來說明如何建立站內(nèi)鏈接。一:制作網(wǎng)站導航制作網(wǎng)站導航欄的注意事項有:第一,盡量使用文字鏈接;第二,不要使用JS調(diào)用方式,盡量使用CSS特效方式;第三,圖片導航的ALT一定要加入說明;第四,導航名稱一定要通俗易懂。關于網(wǎng)

Public @ 2018-06-21 16:11:26

如何實現(xiàn)301跳轉(zhuǎn)?

要實現(xiàn)301跳轉(zhuǎn),可以按照以下步驟操作: 1. 確認被重定向的頁面或網(wǎng)站已經(jīng)關閉或不再使用。 2. 在服務器上創(chuàng)建一個 .htaccess 文件,或者使用已經(jīng)存在的 .htaccess 文件。 3. 在 .htaccess 文件中添加代碼: Redirect 301 /原網(wǎng)址 http://新網(wǎng)址 其中,“原網(wǎng)址”是你想重定向的頁面或者網(wǎng)站的網(wǎng)址,而“新網(wǎng)址”是你想

Public @ 2023-04-01 07:50:23

我希望我的網(wǎng)站內(nèi)容被百度索引但不被保存快照,我該怎么做?

我希望我的網(wǎng)站內(nèi)容被百度索引但不被保存快照,我該怎么做?Baiduspider遵守互聯(lián)網(wǎng)meta robots協(xié)議。您可以利用網(wǎng)頁meta的設置,使百度顯示只對該網(wǎng)頁建索引,但并不在搜索結果中顯示該網(wǎng)頁的快照。和robots的更新一樣,因為搜索引擎索引數(shù)據(jù)庫的更新需要時間,所以雖然您已經(jīng)在網(wǎng)頁中通過meta禁止了百度在搜索結果中顯示該網(wǎng)頁的快照,但百度搜索引擎數(shù)據(jù)庫中如果已經(jīng)建立了網(wǎng)頁索引信息,可

Public @ 2014-06-20 16:08:58

robots使用誤區(qū)

1. 不需要在每個頁面都添加robots.txt文件:robots.txt文件只是一份給搜索引擎看的指令,如果不希望搜索引擎從該頁面抓取數(shù)據(jù),那么每一頁都是可以不用添加robots.txt文件的。 2. 不能用于移動設備:robots.txt文件可用于搜索引擎爬蟲,但也可以在部分機型的移動設備上進行yu處理,可以用于控制移動設備的蜘蛛爬行進行內(nèi)容抓取。 3. 不應該將robots保存到公用

Public @ 2023-03-03 14:00:19

更多您感興趣的搜索

0.686647s