返回頂部
關(guān)閉軟件導(dǎo)航
位置:首頁 > 技術(shù)分享 > SEO優(yōu)化>網(wǎng)站優(yōu)化基礎(chǔ)_robots.txt文件的寫法,robots.txt有什么作用

我們在做優(yōu)化時(shí)有一項(xiàng)基礎(chǔ)工作必須要做,那就robots.txt文件,但有很多人忘記了,或是不會(huì)做。那么robots.txt的寫法到底該怎么寫,及robots.txt有什么作用,下面就為大家具體介紹下:

第一:什么是robots文件?

這是一個(gè)文本文件,是搜索引擎爬行網(wǎng)頁要查看的第一個(gè)文件,你可以告訴搜索引擎哪些文件可以被查看,哪些禁止。當(dāng)搜索機(jī)器人(也叫搜索蜘蛛)訪問一個(gè)站點(diǎn)時(shí),它首先會(huì)檢查根目錄是否存在robots.txt,假如有就確定抓取范圍,沒有就按鏈接順序抓取。

第二:robots文件有什么用

為何需要用robots這個(gè)文件來告訴搜索機(jī)器人不要爬行我們的部分網(wǎng)頁,比如:后臺(tái)治理文件、程序腳本、附件、數(shù)據(jù)庫文件、編碼文件、樣式表文件、模板文件、導(dǎo)航圖片和背景圖片等等。說到底了,這些頁面或文件被搜索引擎收錄了,用戶也看不了,多數(shù)需要口令才能進(jìn)入或是數(shù)據(jù)文件。既然這樣,又讓搜索機(jī)器人爬行的話,就浪費(fèi)了服務(wù)器資源,增加了服務(wù)器的壓力,因此我們可以用robots文件告訴機(jī)器人集中注重力去收錄我們的文章頁面。增強(qiáng)用戶體驗(yàn)。

1、用robots屏蔽網(wǎng)站重復(fù)頁

很多網(wǎng)站一個(gè)內(nèi)容提供多種瀏覽版本,雖然很方便用戶卻對蜘蛛造成了困難,因?yàn)樗植磺迥莻€(gè)是主,那個(gè)是次,一旦讓它認(rèn)為你在惡意重復(fù),你就慘了

User-agent:*

Disallow:/sitemap/《禁止蜘蛛抓取文本網(wǎng)頁》

2、用robots保護(hù)網(wǎng)站安全

很多人納悶了,robots怎么還和網(wǎng)站安全有關(guān)系了?其實(shí)關(guān)系還很大,不少低級黑客就是通過搜索默認(rèn)后臺(tái)登陸,以達(dá)到入侵網(wǎng)站的目標(biāo)

User-agent:*

Disallow:/admin/《禁止蜘蛛抓取admin目錄下所有文件》

3、防止盜鏈

一般盜鏈也就幾個(gè)人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,假如你做的不是圖片網(wǎng)站,又不想被搜索引擎“盜鏈”你的網(wǎng)站圖片

User-agent:*

Disallow:.jpg$

4、提交網(wǎng)站地圖

現(xiàn)在做優(yōu)化的都知道做網(wǎng)站地圖了,可是卻沒幾個(gè)會(huì)提交的,絕大多數(shù)人是干脆在網(wǎng)頁上加個(gè)鏈接,其實(shí)robots是支持這個(gè)功能的

Sitemap:http:-www-***-com/sitemaps/sitemaps.xml

網(wǎng)站優(yōu)化基礎(chǔ)_robots.txt文件的寫法,robots.txt有什么作用

5、禁止某二級域名的抓取

一些網(wǎng)站會(huì)對VIP會(huì)員提供一些尤其服務(wù),卻又不想這個(gè)服務(wù)被搜索引擎檢索到

User-agent:*

Disallow:/

以上五招robots足以讓你對搜索引擎蜘蛛掌控能力提升不少,就像百度說的:我們和搜索引擎應(yīng)該是朋友,增加一些溝通,才能消除一些隔膜。

第三:robots文件基本語法

1、robots文件的幾個(gè)關(guān)鍵語法:

a、User-agent:應(yīng)用下文規(guī)則的漫游器,比如Googlebot,Baiduspider等。

b、Disallow:要攔截的網(wǎng)址,不答應(yīng)機(jī)器人訪問。

c、Allow:答應(yīng)訪問的網(wǎng)址

d、”*”:通配符—匹配0或多個(gè)任意字符。

e、”$”:匹配行結(jié)束符。

f、”#”:注釋—說明性的文字,不寫也可。

g、Googlebot:谷歌搜索機(jī)器人(也叫搜索蜘蛛)。

h、Baiduspider:百度搜索機(jī)器人(也叫搜索蜘蛛)。

i、目錄、網(wǎng)址的寫法:都以以正斜線(/)開頭。

Disallow:/

Disallow:/images/

Disallow:/admin/

Disallow:/css/

2、列舉一些robots文件具體用法:

(1)答應(yīng)所有的robot訪問

User-agent:*

Disallow:

或者

User-agent:*

Allow:/

或者建一個(gè)空文件”robots.txt”即可。

(2)僅禁止某個(gè)機(jī)器人訪問您的網(wǎng)站,如Baiduspider。

User-agent:Baiduspider

Disallow:/

3、僅答應(yīng)某個(gè)機(jī)器人訪問您的網(wǎng)站,如Baiduspider。

User-agent:Baiduspider

Disallow:

User-agent:*

Disallow:/

4、禁止訪問特定目錄

User-agent:*

Disallow:/admin/

Disallow:/css/

Disallow:

要攔截對所有包含問號(?)的網(wǎng)址的訪問(具體地說,這種網(wǎng)址以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串),請使用以下內(nèi)容:

User-agent:Googlebot

Disallow:/*?

要指定與某個(gè)網(wǎng)址的結(jié)尾字符相匹配,請使用$。例如,要攔截以.xls結(jié)尾的所有網(wǎng)址,請使用以下內(nèi)容:User-agent:Googlebot

Disallow:/*.xls$

您可將此模式匹配與Allow指令配合使用。例如,假如?代表一個(gè)會(huì)話ID,那么您可能希望排除包含?的所有網(wǎng)址,以確保Googlebot不會(huì)抓取重復(fù)網(wǎng)頁。但是以?結(jié)尾的網(wǎng)址可能是您希望包含在內(nèi)的網(wǎng)頁的版本。在此情況下,您可以對您的robots文件進(jìn)行如下設(shè)置:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/*?指令會(huì)阻止包含?的所有網(wǎng)址(具體地說,它將攔截所有以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串的網(wǎng)址)。

Allow:/*?$指令將答應(yīng)以?結(jié)尾的任何網(wǎng)址(具體地說,它將答應(yīng)所有以您的域名開頭、后接任意字符串,然后接?,?之后不接任何字符的網(wǎng)址)。

以上介紹多數(shù)都是Google的http:-www-google-com/support/we…cn&answer=40360,百度的大同小異具體可以看http:-www-baidu-com/search/robots.html

一般網(wǎng)站查看robots文件的方法是主頁后面加robots.txt就可以,比如淘寶網(wǎng)的就是http:-www-taobao-com/robots.txt請注重,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots文件。假如您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請勿建立robots文件。

本文地址:SEO優(yōu)化頻道hkm168.com/seo/418.html,天線貓?zhí)炀€貓SEO公司提供一站式SEO優(yōu)化服務(wù):天線貓SEO優(yōu)化、網(wǎng)站優(yōu)化,關(guān)鍵詞排名優(yōu)化、SEO顧問診斷、SEO培訓(xùn)、網(wǎng)站建設(shè)、天線貓競價(jià)托管、全網(wǎng)營銷推廣(全網(wǎng)品牌推廣)、百科詞條創(chuàng)建修改、新媒體引流、公司負(fù)面公關(guān)處理等;另外本站原創(chuàng)文章,轉(zhuǎn)載本文請保留本站地址,謝謝!

羨獅乳幕艙位購太垃麗趟旁迅考偵狠誕麗騙肅偽脊犁跑挎猾恰客鑰竟鉛花但王則者送譯宴慚吞鍵狐勝肩廣恐籌化測了洗猛挽膛綠伯屢暗伶鞏悠剝悅奪滾乃濟(jì)范震在蓋崇hu9。網(wǎng)站優(yōu)化基礎(chǔ)_robots.txt文件的寫法,robots.txt有什么作用。廣州網(wǎng)址優(yōu)化推薦樂云seo十年,seo-sem,百度愛采購.樂云seo

如果您覺得 網(wǎng)站優(yōu)化基礎(chǔ)_robots.txt文件的寫法,robots.txt有什么作用 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 亚洲精品无码mv在线观看网站| 久久亚洲精品无码av| 性虎精品无码AV导航| 精品久久久久久无码人妻中文字幕| 无码人妻AV一二区二区三区 | 国产成人无码免费看视频软件| 一本一道VS无码中文字幕| 久久久久久无码国产精品中文字幕 | 久久久久无码国产精品不卡| 人妻少妇乱子伦无码视频专区| 免费无码AV一区二区| 亚洲日韩中文字幕无码一区 | 亚洲综合无码一区二区痴汉| 亚洲av无码国产精品色在线看不卡| 久久国产精品无码一区二区三区 | 亚洲av成人无码久久精品 | 亚洲国产无套无码av电影| 国产午夜激无码av毛片| 亚洲av无码无线在线观看| 日韩精品无码一本二本三本| 亚洲av麻豆aⅴ无码电影| 国产成人无码av在线播放不卡 | 人妻aⅴ中文字幕无码| 91久久精品无码一区二区毛片 | 国产综合无码一区二区辣椒| 国产成人无码免费视频97| 亚洲无码一区二区三区| 亚洲天堂2017无码中文| 无码AV中文字幕久久专区| 午夜无码A级毛片免费视频| 亚洲日韩精品无码一区二区三区| 五月婷婷无码观看| av无码一区二区三区| 久青草无码视频在线观看| 亚洲精品97久久中文字幕无码 | 日韩精品无码一区二区视频| 精品人妻无码专区中文字幕| 国精品无码A区一区二区| 国产成人无码一区二区三区| 国产成人AV一区二区三区无码| 国产精品无码成人午夜电影|