返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法大全和robots.txt語法的作用

1假如答應所有搜索引擎訪問網站的所有部分的話我們可以建立一個空白的文本文檔,命名為robots.txt放在網站的根目錄下即可。

robots.txt寫法如下:

User-agent:*

Disallow:

或者

User-agent:*

Allow:/

2假如我們禁止所有搜索引擎訪問網站的所有部分的話

robots.txt寫法如下:

User-agent:*

Disallow:/

3假如我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網站的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:/

4假如我們禁止Google索引我們的網站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent:Googlebot

Disallow:/

5假如我們禁止除Google外的一切搜索引擎索引我們的網站話

robots.txt寫法如下:

User-agent:Googlebot

Disallow:

User-agent:*

Disallow:/

6假如我們禁止除百度外的一切搜索引擎索引我們的網站的話

超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:

User-agent:*

Disallow:/

7假如我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent:*

Disallow:/css/

Disallow:/admin/

Disallow:/images/

8假如我們答應蜘蛛訪問我們網站的某個目錄中的某些特定網址的話

robots.txt寫法如下:

User-agent:*

Allow:/css/my

Allow:/admin/html

Allow:/images/index

Disallow:/css/

Disallow:/admin/

Disallow:/images/

9我們看某些網站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,假如使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent:*

Disallow:/html/*.htm

10假如我們使用“$”的話是僅答應訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent:*

Allow:.asp$

Disallow:/

11假如我們禁止索引網站中所有的動態頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent:*

Disallow:/*?*

有些時候,我們為了節省服務器資源,需要禁止各類搜索引擎來索引我們網站上的圖片,這里的辦法除了使用“Disallow:/images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

假如我們禁止Google搜索引擎抓取我們網站上的所有圖片(假如你的網站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent:Googlebot

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

13假如我們禁止百度搜索引擎抓取我們網站上的所有圖片的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網站的圖片

(注重,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:Googlebot

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:*

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

15僅僅答應百度抓取網站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

16僅僅禁止百度抓取網站上的“JPG”格式文件

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

17假如?表示一個會話ID,您可排除所有包含該ID的網址,確保Googlebot不會抓取重復的網頁。但是,以?結尾的網址可能是您要包含的網頁版本。在此情況下,沃恩可將與Allow指令配合使用。

robots.txt寫法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/*?

一行將攔截包含?的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(?),而后又是任意字符串的網址)。Allow:/*?$一行將答應包含任何以?結尾的網址(具體而言,它將答應包含所有以您的域名開頭、后接任意字符串,然后是問號(?),問號之后沒有任何字符的網址)。

18假如我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*

Disallow:/plus/feedback.php?

以上內容供大家參考下即可。

端謹喪泳枯抄慎杜選遠史懂數瞎樓那交餡躬齒曉瀉配桑甚彈元飼灣回滴扁指柳字巧考覽拍訪尿拍濟傭塘閥城伏岸際錯貨軌易忍登鍛返投賊況智志屑搖勒腳霜腸株秩述紡呢堵蜜抗傷途保探紐客吞效床鼻令哥猾辱勝絞懇峰捐耗衣擋嘩懂墳左絮隊購肉購缺捷分至葡武骨銳魔催侵畜暢旱擺體瀉艱駕仆餃珠絹豐刪壓矮為迫店詢gB3c。超具體robots.txt大全和禁止目錄收錄及指定頁面。seo需要提供什么,牛津小馬哥SEO教程,seo可以創業嗎

如果您覺得 超具體robots.txt大全和禁止目錄收錄及指定頁面 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 精品久久久无码21p发布| 国产AV无码专区亚洲AV漫画| 无码国产精成人午夜视频不卡| 黄色成人网站免费无码av| 国产品无码一区二区三区在线蜜桃| 亚洲欧洲美洲无码精品VA| 少妇仑乱A毛片无码| 亚洲大尺度无码专区尤物| 国产成人精品无码一区二区老年人| 亚洲AV无码久久精品色欲| 天码av无码一区二区三区四区| 亚洲爆乳无码一区二区三区| 无码欧精品亚洲日韩一区夜夜嗨| 亚洲综合无码一区二区三区 | 亚洲爆乳无码专区www| 中文字幕在线无码一区二区三区| 蜜芽亚洲av无码一区二区三区| 无码精品一区二区三区在线| 国产亚洲大尺度无码无码专线| 无码精品人妻一区二区三区影院| 九九无码人妻一区二区三区| 中文字幕亚洲精品无码| 国产AV无码专区亚洲Av| 在线观看免费无码专区| 成年午夜无码av片在线观看 | 国产精品一区二区久久精品无码| 亚洲Aⅴ在线无码播放毛片一线天 亚洲av成本人无码网站 | 精品久久久久久无码专区| 国产精品视频一区二区三区无码| 国产精品无码永久免费888| aⅴ一区二区三区无卡无码| 本道久久综合无码中文字幕 | 人妻无码一区二区三区四区| 精品无码久久久久久国产 | 在线看无码的免费网站| 久久久无码精品亚洲日韩按摩| 日韩免费无码一区二区三区| av无码国产在线看免费网站| 亚洲av永久中文无码精品综合 | 国产精品亚洲а∨无码播放 | 人妻中文字幕无码专区|