日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


搜索引擎蜘蛛對于網(wǎng)站抓取是否很智能?如何引導(dǎo)蜘蛛?

盡管搜索引擎在不斷的升級算法,但是終究其還是程序,因此我們在布局網(wǎng)站結(jié)構(gòu)的時候要盡可能的讓搜索引擎蜘蛛能看的懂。每個搜索引擎蜘蛛都有自己的名字,在抓取網(wǎng)頁的時候,都會向網(wǎng)站標(biāo)明自己的身份。搜索引擎蜘蛛在抓取網(wǎng)頁的時候會發(fā)送一個請求,這個請求中就有一個字段為User-agent,用于標(biāo)識此搜索引擎蜘蛛的身份。

例如Google搜索引擎蜘蛛的標(biāo)識為GoogleBot,百度搜索引擎蜘蛛的標(biāo)識為Baidu spider,Yahoo搜索引擎蜘蛛的標(biāo)識為Inktomi Slurp。如果在網(wǎng)站上有訪問日志記錄,網(wǎng)站管理員就能知道,哪些搜索引擎的搜索引擎蜘蛛過來過,什么時候過來的,以及讀了多少數(shù)據(jù)等等。如果網(wǎng)站管理員發(fā)現(xiàn)某個蜘蛛有問題,就通過其標(biāo)識來和其所有者聯(lián)系。

搜索引擎蜘蛛進(jìn)入一個網(wǎng)站,一般會訪問一個特殊的文本文件Robots.txt,這個文件一般放在網(wǎng)站服務(wù)器的根目錄下,網(wǎng)站管理員可以通過robots.txt來定義哪些目錄搜索引擎蜘蛛不能訪問,或者哪些目錄對于某些特定的搜索引擎蜘蛛不能訪問。例如有些網(wǎng)站的可執(zhí)行文件目錄和臨時文件目錄不希望被搜索引擎搜索到,那么網(wǎng)站管理員就可以把這些目錄定義為拒絕訪問目錄。Robots.txt語法很簡單,例如如果對目錄沒有任何限制,可以用以下兩行來描述。

User-agent: *

Disallow:

當(dāng)然,Robots.txt只是一個協(xié)議,如果搜索引擎蜘蛛的設(shè)計者不遵循這個協(xié)議,網(wǎng)站管理員也無法阻止搜索引擎蜘蛛對于某些頁面的訪問,但一般的搜索引擎蜘蛛都會遵循這些協(xié)議,而且網(wǎng)站管理員還可以通過其它方式來拒絕搜索引擎蜘蛛對某些網(wǎng)頁的抓? ?

搜索引擎蜘蛛在下載網(wǎng)頁的時候,會去識別網(wǎng)頁的HTML代碼,在其代碼的部分,會有META標(biāo)識。通過這些標(biāo)識,可以告訴搜索引擎蜘蛛本網(wǎng)頁是否需要被抓取,還可以告訴搜索引擎蜘蛛本網(wǎng)頁中的鏈接是否需要被繼續(xù)跟蹤。例如:表示本網(wǎng)頁不需要被抓取,但是網(wǎng)頁內(nèi)的鏈接需要被跟蹤。

現(xiàn)在一般的網(wǎng)站都希望搜索引擎能更全面的抓取自己網(wǎng)站的網(wǎng)頁,因為這樣可以讓更多的訪問者能通過搜索引擎找到此網(wǎng)站。為了讓本網(wǎng)站的網(wǎng)頁更全面被抓取到,網(wǎng)站管理員可以建立一個網(wǎng)站地圖,即Site Map。許多搜索引擎蜘蛛會把sitemap.htm文件作為一個網(wǎng)站網(wǎng)頁爬取的入口,網(wǎng)站管理員可以把網(wǎng)站內(nèi)部所有網(wǎng)頁的鏈接放在這個文件里面,那么搜索引擎蜘蛛可以很方便的把整個網(wǎng)站抓取下來,避免遺漏某些網(wǎng)頁,也會減小對網(wǎng)站服務(wù)器的負(fù)擔(dān)。(Google專門為網(wǎng)站管理員提供了XML的Sitemap)

搜索引擎建立網(wǎng)頁索引,處理的對象是文本文件。對于搜索引擎蜘蛛來說,抓取下來網(wǎng)頁包括各種格式,包括html、圖片、doc、pdf、多媒體、動態(tài)網(wǎng)頁及其它格式等。這些文件抓取下來后,需要把這些文件中的文本信息提取出來。準(zhǔn)確提取這些文檔的信息,一方面對搜索引擎的搜索準(zhǔn)確性有重要作用,另一方面對于搜索引擎蜘蛛正確跟蹤其它鏈接有一定影響。

對于doc、pdf等文檔,這種由專業(yè)廠商提供的軟件生成的文檔,廠商都會提供相應(yīng)的文本提取接口。搜索引擎蜘蛛只需要調(diào)用這些插件的接口,就可以輕松的提取文檔中的文本信息和文件其它相關(guān)的信息。

HTML等文檔不一樣,HTML有一套自己的語法,通過不同的命令標(biāo)識符來表示不同的字體、顏色、位置等版式,如:、、等,提取文本信息時需要把這些標(biāo)識符都過濾掉。過濾標(biāo)識符并非難事,因為這些標(biāo)識符都有一定的規(guī)則,只要按照不同的標(biāo)識符取得相應(yīng)的信息即可。但在識別這些信息的時候,需要同步記錄許多版式信息。

除了標(biāo)題和正文以外,會有許多廣告鏈接以及公共的頻道鏈接,這些鏈接和文本正文一點關(guān)系也沒有,在提取網(wǎng)頁內(nèi)容的時候,也需要過濾這些無用的鏈接。例如某個網(wǎng)站有“產(chǎn)品介紹”頻道,因為導(dǎo)航條在網(wǎng)站內(nèi)每個網(wǎng)頁都有,若不過濾導(dǎo)航條鏈接,在搜索“產(chǎn)品介紹”的時候,則網(wǎng)站內(nèi)每個網(wǎng)頁都會搜索到,無疑會帶來大量垃圾信息。過濾這些無效鏈接需要統(tǒng)計大量的網(wǎng)頁結(jié)構(gòu)規(guī)律,抽取一些共性,統(tǒng)一過濾;對于一些重要而結(jié)果特殊的網(wǎng)站,還需要個別處理。這就需要搜索引擎蜘蛛的設(shè)計有一定的擴展性。


Public @ 2020-07-03 16:22:36

如何讓 sogou spider 不抓我的網(wǎng)站

有以下幾種方式可以讓 sogou spider 不抓取你的網(wǎng)站: 1. 使用 robots.txt 文件。在網(wǎng)站根目錄下添加 robots.txt 文件,并加入以下代碼: User-agent: Sogou Disallow: / 這將告訴 Sogou 爬蟲不要訪問網(wǎng)站的任何頁面和文件。 2. 使用 meta 標(biāo)簽。在網(wǎng)站的頭部添加以下 meta 標(biāo)簽: 這將告訴所有的搜索引擎爬蟲不

Public @ 2023-04-18 21:00:23

搜狗spider的抓取頻次是怎樣的?

sogou spider 對于同一個 IP 地址的服務(wù)器主機,只建立一個連接,抓取間隔速度控制在幾秒一次。一個網(wǎng)頁被收錄后,最快也要過幾天以后才會去更新。如果持續(xù)不斷地抓取您的網(wǎng)站,請注意您的網(wǎng)站上的網(wǎng)頁是否每次訪問都產(chǎn)生新的鏈接。如果您認(rèn)為 sogou spider 對于您的網(wǎng)站抓取過快,請與我們聯(lián)系,并最好能提供訪問日志中sogou spider 訪問的部分,而不要直接將搜狗spider的ua

Public @ 2017-08-18 15:38:49

搜索引擎蜘蛛劫持是什么?怎么判斷是否被劫持

搜索引擎蜘蛛劫持是seo黑帽中常用的一種手法,需要一定的技術(shù)支持getshell,然后上傳惡意的代碼到網(wǎng)站根目錄下面或者修改網(wǎng)站的一些文件,搜索引擎蜘蛛劫持的原理就是判斷來訪網(wǎng)站的是用戶還是蜘蛛,如果是蜘蛛就推送一個事先準(zhǔn)備的惡意網(wǎng)站,如果是用戶就推送一個正常的網(wǎng)頁1:蜘蛛判斷判斷訪問的是用戶還是蜘蛛,如果是用戶就推送一個正常網(wǎng)頁,如果是蜘蛛就推送一個惡意網(wǎng)頁,判斷方式有兩種,一種是判斷蜘蛛的UA

Public @ 2017-05-29 16:22:36

Google爬行緩存代理(crawl caching proxy)

Google爬行緩存代理是指一個系統(tǒng)或應(yīng)用程序,作為一種中間層,扮演緩存服務(wù)器的角色,將已抓取的網(wǎng)絡(luò)頁面存儲在緩存中,等待后續(xù)的請求。在Google上,這個代理系統(tǒng)用于加速用戶訪問網(wǎng)站的過程,提高網(wǎng)站的響應(yīng)速度,并減少搜索引擎爬蟲的訪問量。通過這種方式,Google能夠有效地降低網(wǎng)站的負(fù)載,并利用緩存的內(nèi)容來提高用戶的搜索體驗。Google的爬行緩存代理充分體現(xiàn)了其對網(wǎng)絡(luò)性能和用戶體驗的重視,也是

Public @ 2023-04-02 07:00:11

更多您感興趣的搜索

0.465923s