日本少妇高潮久久久久久_东京热一区二区三区无码视频_国内精品人妻久久毛片app_男人撕开奶罩揉吮奶头视频_少妇交换做爰做到高潮_睡错了人妻公h_国产男女猛烈无遮挡a片漫画_男女啪啪做爰高潮全过有多钱_国产猛男猛女超爽免费视频

Categories


Tags


網(wǎng)站誤封Robots該如何處理

robots文件是搜索生態(tài)中很重要的一個(gè)環(huán)節(jié),同時(shí)也是一個(gè)很細(xì)節(jié)的環(huán)節(jié)。很多站長(zhǎng)同學(xué)在網(wǎng)站運(yùn)營(yíng)過(guò)程中,很容易忽視r(shí)obots文件的存在,進(jìn)行錯(cuò)誤覆蓋或者全部封禁robots,造成不必要損失!

那么如果誤操作封禁了robots怎么辦?今天我們請(qǐng)到了廈門(mén)258網(wǎng)站運(yùn)營(yíng)負(fù)責(zé)人——鄭軍偉,為我們分享網(wǎng)站robots誤封禁后該如何操作?

【案例背景】

網(wǎng)站開(kāi)發(fā)2.0版本,技術(shù)選擇了在線開(kāi)發(fā),為了避免搜索引擎抓取開(kāi)發(fā)版本,要求技術(shù)人員設(shè)置了Robots封禁處理。2.0版本開(kāi)發(fā)周期1個(gè)月,1個(gè)月后網(wǎng)站版本迭代,直接覆蓋了1.0版本,包括Robots封禁文件,2天后發(fā)現(xiàn)流量大幅下降,檢查收錄發(fā)現(xiàn)800萬(wàn)收錄降至0條,關(guān)鍵詞大量掉線。

【處理方式】

1.修改Robots封禁為允許,然后到百度搜索資源后臺(tái)檢測(cè)并更新Robots。

2.在百度搜索資源后臺(tái)抓取檢測(cè),此時(shí)顯示抓取失敗,沒(méi)關(guān)系,多點(diǎn)擊抓取幾次,觸發(fā)蜘蛛抓取站點(diǎn)。

3.在百度搜索資源后臺(tái)抓取頻次,申請(qǐng)抓取頻次上調(diào)。

4.百度反饋中心,反饋是因?yàn)檎`操作導(dǎo)致了這種情況的發(fā)生。

5.百度搜索資源后臺(tái)鏈接提交處,設(shè)置數(shù)據(jù)API推送(實(shí)時(shí))。

6.更新sitemap網(wǎng)站地圖,重新提交百度,每天手動(dòng)提交一次。

以上處理完,接下來(lái)就是等待了,萬(wàn)幸,2天的時(shí)間數(shù)據(jù)開(kāi)始慢慢回升,到第3天基本回升到正常狀態(tài)!

【案例總結(jié)】

本次事故絕對(duì)是運(yùn)營(yíng)生涯的一次敗筆,總結(jié)反思一下,希望大家避免類似問(wèn)題。

1.產(chǎn)品開(kāi)發(fā)一定要避免在線開(kāi)發(fā),不能為了省事不搭建開(kāi)發(fā)環(huán)境。

2.產(chǎn)品迭代要有流程記錄,開(kāi)發(fā)時(shí)做了那些設(shè)置處理,那些是不需要放出來(lái)的,那些是必須放出來(lái)的,要非常清楚。

3.要經(jīng)常關(guān)注百度搜索資源后臺(tái),關(guān)注相關(guān)數(shù)據(jù)變化,從數(shù)據(jù)變化中及時(shí)發(fā)現(xiàn)問(wèn)題

百度搜索robots協(xié)議全新升級(jí)

9月11日,百度搜索robots全新升級(jí)。升級(jí)后robots將優(yōu)化對(duì)網(wǎng)站視頻URL收錄抓取情況。僅當(dāng)您的網(wǎng)站包含不希望被視頻搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。

如您的網(wǎng)站未設(shè)置robots協(xié)議,百度搜索對(duì)網(wǎng)站視頻URL的收錄將包含視頻播放頁(yè)URL,及頁(yè)面中的視頻文件、視頻周邊文本等信息,搜索對(duì)已收錄的短視頻資源將對(duì)用戶呈現(xiàn)為視頻極速體驗(yàn)頁(yè)。此外,綜藝影視類長(zhǎng)視頻,搜索引擎僅收錄頁(yè)面URL。

詳情見(jiàn):視頻極速體驗(yàn)解決方案

來(lái)源:百度搜索資源平臺(tái) 百度搜索學(xué)堂


Public @ 2009-10-29 16:08:56

如何替換請(qǐng)求URL中的文字?

在大多數(shù)編程語(yǔ)言中,可以使用字符串函數(shù)或正則表達(dá)式對(duì)請(qǐng)求URL中的文字進(jìn)行替換。以下是一些通用的方法: 1. 使用字符串函數(shù):許多編程語(yǔ)言都提供了字符串函數(shù),可以將字符串中的特定文字替換為其他文字。例如在Python中,可以使用replace()函數(shù): ```python url = 'https://example.com/old_text/subdirectory' new_url = u

Public @ 2023-03-26 23:00:24

robots

robots是網(wǎng)站跟爬蟲(chóng)間的協(xié)議,用簡(jiǎn)單直接的txt格式文本方式告訴對(duì)應(yīng)的爬蟲(chóng)被允許的權(quán)限,也就是說(shuō)robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。來(lái)源:360站

Public @ 2014-01-16 16:09:19

robots.txt:如何讓搜索引擎不要抓取沒(méi)用的頁(yè)面

| 什么是robots文件?Robots是站點(diǎn)與spider溝通的重要渠道,是網(wǎng)站與搜索引擎爬蟲(chóng)之間的協(xié)議,告知哪些可抓取哪些不允許。| 為什么要做robots文件?網(wǎng)站上總有一些頁(yè)面是禁止蜘蛛抓取的。例如:搜索頁(yè)面、篩選頁(yè)面、后臺(tái)登錄地址等。| 如何制作 robots文件?編寫(xiě)robots.txt文件并上傳到網(wǎng)站根目錄。| 制作 robots.txt注意事項(xiàng)● 所有搜索引擎則用星號(hào)表示● All

Public @ 2019-03-13 16:09:27

更多您感興趣的搜索

0.437911s