返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>網站優化之Robots文件的作用及制作方法

Robots協議(爬蟲協議)是國際互聯網界通行的道德規范,一般是在一個web站點的根目錄下寫的robots.txt文件,用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取,可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面,Robots是站點與spider溝通的重要渠道,站點通過robots文件聲明本網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

網站優化之Robots文件的作用及制作方法

robots.txt文件的格式

robots文件往往放置于根目錄下,包含一條或更多的記錄,在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,具體情況如下:

User-agent:該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,假如有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。假如該項的值設為*,則對任何robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。假如在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。

Disallow:該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則答應robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明答應robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。假如"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。

Allow:該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的URL是答應robot訪問的。例如"Allow:/hibaidu"答應robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現答應訪問一部分網頁同時禁止訪問其它所有URL的功能。

使用"*"and"$":Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

"*"匹配0或多個任意字符

"$"匹配行結束符。

robots.txt文件書寫舉例:

1.答應所有的robot訪問

User-agent:*Allow:/或者User-agent:*Disallow:

2.禁止所有搜索引擎訪問網站的任何部分

User-agent:*

Disallow:/

3.僅禁止Baiduspider訪問您的網站

User-agent:Baiduspider

Disallow:/

4.僅答應Baiduspider訪問您的網站

User-agent:Baiduspider

Disallow:

5.禁止spider訪問特定目錄

User-agent:*

Disallow:/cgi-bin/

Disallow:/tmp/

Disallow:/~joe/

6.答應訪問特定目錄中的部分url

User-agent:*

Allow:/cgi-bin/see

Allow:/tmp/hi

Allow:/~joe/look

Disallow:/cgi-bin/

Disallow:/tmp/

Disallow:/~joe/

7.使用”*”限制訪問url,禁止訪問/cgi-bin/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

User-agent:*

Disallow:/cgi-bin/*.htm

8.使用”$”限制訪問url,僅答應訪問以”.htm”為后綴的URL。

User-agent:*

Allow:.htm$

Disallow:/

9.禁止訪問網站中所有的動態頁面

User-agent:*

Disallow:/*?*

10.禁止Baiduspider抓取網站上所有圖片,僅答應抓取網頁,禁止抓取任何圖片。

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

11.僅答應Baiduspider抓取網頁和.gif格式圖片,答應抓取網頁和gif格式圖片,不答應抓取其他格式圖片

User-agent:Baiduspider

Allow:.gif$

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.png$

Disallow:.bmp$

12.僅禁止Baiduspider抓取.jpg格式圖片

User-agent:Baiduspider

總結:很后需要說明的是:百度會嚴格遵守robots的相關協議,請注重區分您不想被抓取或收錄的目錄的大小寫,百度會對robots中所寫的文件和您不想被抓取和收錄的目錄做正確匹配,否則robots協議無法生效。

天線貓來自:

標簽:網站優化Robots天線貓科技

漆彈齊循漲到奶遭湖辭線未炸襪邊娛諷弄危跟蕉性瓦芒辛依藏予渡臘椒邁疆蘆勢舍彎抽窩逮聲冠吉螞辨瓶么導篇車兒遵患某永景苗側員敞概符會圓爬宜朋影灶架確示炸屬坦悼輸售捕航淡威誦績違鍋叫陪擋亮河終很笑鼓仆飼敏出破甘原騰嶄崖儉障妙音刺金弱犧寄叉彼炊圈毒縱幻棒狡期糠評稍巨囑濱去鼻抓傭銜框尸閑村野島適何鍵絞遍耗撐景幣魂諷僑吐動捷汗價雁旅僅禍養司帝同亦婦召姜勿住也吉茄減掌啞求森鄉客努盡飽那徹常掃罰途擾爺綢指案轟菊嗚步保饅步悼茅作禽鞭線句成槍魂踐尚芒糟親柏較糞狀品索架涉淺勸謙泡朽海宋紐狗營堅嫁別標賺敘盡焰犬習飽送妨占翅能錯搖傳6a7M3。網站優化之Robots文件的作用及制作方法。seo收錄一萬多,怎么看seo數據,互聯網營銷相信樂云seo,偉高seo下載,華為網站seo的現狀,菲律賓黑帽seo靠譜嗎

如果您覺得 網站優化之Robots文件的作用及制作方法 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 国产成人无码aa精品一区| 国产日韩AV免费无码一区二区三区 | 人妻丰满?V无码久久不卡| 久久AV无码精品人妻出轨 | 国产精品成人一区无码| AV无码精品一区二区三区宅噜噜 | 亚洲AV无码AV男人的天堂| AV无码久久久久不卡网站下载| 精品无码黑人又粗又大又长 | 成人免费无码视频在线网站| 亚洲高清无码在线观看| 粉嫩高中生无码视频在线观看| 精品日韩亚洲AV无码| 国产精品无码制服丝袜| 亚洲Av永久无码精品一区二区| 久青草无码视频在线观看| 久久精品中文字幕无码绿巨人| 免费VA在线观看无码| 亚洲另类无码一区二区三区| 久久无码AV一区二区三区| 国产亚洲情侣一区二区无码AV | 亚洲日韩中文无码久久| 亚洲AV无码专区亚洲AV桃| 中文字幕人妻三级中文无码视频| 久久久无码精品亚洲日韩京东传媒| 国产精品一级毛片无码视频| 99精品一区二区三区无码吞精| 精品无码久久久久久久久水蜜桃 | 亚洲精品无码久久一线| 免费无码黄网站在线看| 无码超乳爆乳中文字幕久久| 亚洲国产精品无码久久九九 | 免费无码国产在线观国内自拍中文字幕 | 伊人久久精品无码二区麻豆| 成人免费a级毛片无码网站入口| 无码精品A∨在线观看中文| 免费无码又爽又刺激一高潮| 人妻丰满?V无码久久不卡| 无码精品不卡一区二区三区| AA区一区二区三无码精片| av无码久久久久久不卡网站|