robots使用誤區(qū)
1. 不需要在每個頁面都添加robots.txt文件:robots.txt文件只是一份給搜索引擎看的指令,如果不希望搜索引擎從該頁面抓取數(shù)據(jù),那么每一頁都是可以不用添加robots.txt文件的。 2. 不能用于移動設備:robots.txt文件可用于搜索引擎爬蟲,但也可以在部分機型的移動設備上進行yu處理,可以用于控制移動設備的蜘蛛爬行進行內容抓取。 3. 不應該將robots保存到公用文件夾:如果存放在公用文件夾,所以網(wǎng)站確實包含多個鏈接,則所有用到robots.txt文件的頁面都將使用同一份robots文件。需要將robots.txt文件放在每個頁面的根目錄下來避免混淆和混合索引。