返回頂部
關(guān)閉軟件導(dǎo)航
位置:首頁(yè) > 技術(shù)分享 > SEO優(yōu)化>如何通過(guò)seo技術(shù)引流網(wǎng)站RobotS是什么以及

robots.txt文件會(huì)告訴搜索引擎在您的網(wǎng)站上可以或不能去的地方。

首先,它列出了您想讓搜索引擎抓取以及不想抓取的所有內(nèi)容。其次它可以規(guī)定哪些搜索引擎可以抓取,哪些不能。比如指定百度可以抓取,谷歌不能。

但并不是所有搜索引擎都遵循robots.txt協(xié)議,即使屏蔽了還肆意抓取。

無(wú)如何通過(guò)seo技術(shù)引流:名SEO的robots文件設(shè)置如下圖:

robots文件截圖

訪問(wèn)地址為:

每個(gè)搜索引擎用不同的蜘蛛標(biāo)識(shí)自己。您可以在robots.txt文件中為每個(gè)設(shè)置自定義說(shuō)明。這里有一些對(duì)SEO有用的蜘蛛:

Google:GooglebotGoogleImages:Googlebot-ImageBing:BingbotYahoo:SlurpBaidu:BaiduspiderDuckDuckGo:DuckDuckBotToutiao:Bytespider

您還可以使用星號(hào)(*)通配符將指令分配給所有蜘蛛。例如,假設(shè)您要阻止除Googlebot之外的所有蜘蛛抓取您的網(wǎng)站。這是您的處理方式:

User-agent:*

Disallow:/

User-agent:Googlebot

Allow:/

指令是您希望聲明的用戶(hù)代理遵循的規(guī)則。

如何通過(guò)seo技術(shù)引流網(wǎng)站RobotS是什么以及

支持的指令

以下是百度當(dāng)前支持的指令及其用法。

不答應(yīng)

使用此指令來(lái)指示搜索引擎不要訪問(wèn)屬于特定路徑的文件和頁(yè)面。例如,假如您想阻止所有搜索引擎訪問(wèn)您的php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/.php$

注重假如您在disallow指令后未能定義路徑,搜索引擎將忽略它。

答應(yīng)

使用此指令可答應(yīng)搜索引擎搜尋子目錄或頁(yè)面,即使在本來(lái)不答應(yīng)的目錄中也是如此。例如,假如您想防止搜索引擎訪問(wèn)網(wǎng)站除文章以外的所有頁(yè)面,那么robots.txt文件可能如下所示:

在此示例中,搜索引擎可以訪問(wèn)除文章以外的所有頁(yè)面,但無(wú)法訪問(wèn)以下目錄:

這些news下的所有目錄。當(dāng)然具體鏈接因網(wǎng)站設(shè)定而異。這里舉例叫作news。

假如您在allow指令之后未能定義路徑,搜索引擎將忽略它。

有關(guān)規(guī)則沖突的說(shuō)明

除非您小心,否則禁止和答應(yīng)指令很簡(jiǎn)單彼此沖突。在下面的示例中,我們禁止訪問(wèn)并答應(yīng)訪問(wèn)。

在這種情況下,URL似乎既被禁止也被答應(yīng)。那么哪個(gè)贏?

對(duì)于搜索引擎規(guī)則是字符很多的指令獲勝。這是不答應(yīng)的指令。

(6個(gè)字符)

(5個(gè)字符)

假如allow和disallow指令的長(zhǎng)度相等,則限制性很小的指令獲勝。

網(wǎng)站地圖

使用此指令可以指定站點(diǎn)地圖在搜索引擎中的位置。假如您不熟悉站點(diǎn)地圖,它們通常會(huì)包含您希望搜索引擎進(jìn)行爬網(wǎng)和編制索引的頁(yè)面。

這是使用sitemap指令的robots.txt文件的示例:

對(duì)于許多網(wǎng)站,尤其是小型網(wǎng)站,擁有robots.txt文件并不是至關(guān)重要的。

就是說(shuō),沒(méi)有充分的理由不這樣做。它使您可以更好地控制搜索引擎可以在您的網(wǎng)站上訪問(wèn)以及不能在網(wǎng)站上訪問(wèn),這可以幫助您解決以下問(wèn)題:

1.防止重復(fù)內(nèi)容的爬行;

2.將網(wǎng)站的各個(gè)部分(例如您的登臺(tái)站點(diǎn))保持私密性;

3.防止抓取內(nèi)部搜索結(jié)果頁(yè)面;

4.防止服務(wù)器過(guò)載;

5.防止蜘蛛浪費(fèi)“抓取預(yù)算”。

6.防止不相關(guān)文件出現(xiàn)在Google搜索結(jié)果中。

請(qǐng)注重,盡管搜索引擎通常不會(huì)為robots.txt中被阻止的網(wǎng)頁(yè)編制索引,但是無(wú)法保證使用robots.txt文件將其排除在搜索結(jié)果之外。

就像Google所說(shuō)的那樣,假如內(nèi)容是從網(wǎng)絡(luò)上的其他地方鏈接到的,則它可能仍會(huì)出現(xiàn)在Google搜索結(jié)果中。

假如您還沒(méi)有robots.txt文件,則創(chuàng)建它很簡(jiǎn)單。只需打開(kāi)一個(gè)空白的.txt文檔并開(kāi)始輸入指令即可。例如,假如您想禁止所有搜索引擎檢索目錄:

User-agent:*

Disallow:/admin/

繼續(xù)建立指令,直到對(duì)所擁有的東西滿(mǎn)足為止。將文件另存為“robots.txt”。

將robots.txt文件放置在其所應(yīng)用的子域的根目錄中。例如,要控制domain.com上的爬網(wǎng)行為,應(yīng)該可以在domain.com/robots.txt上訪問(wèn)robots.txt文件。

假如要控制在Blog.domain.com之類(lèi)的子域上進(jìn)行爬網(wǎng),則應(yīng)該可以在blog.domain.com/robots.txt上訪問(wèn)robots.txt文件。

使用“$”指定URL的結(jié)尾

包括“$”符號(hào)以標(biāo)記URL的結(jié)尾。例如,假如您想防止搜索引擎訪問(wèn)您網(wǎng)站上的所有.php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/*.php$

檢查ROBOT文件

您可以通過(guò)站長(zhǎng)平臺(tái)或者愛(ài)站工具進(jìn)行檢測(cè),愛(ài)站檢測(cè)效果如下:

檢測(cè)地址:tools.aizhan.com/robots/

以下是收集的一些常見(jiàn)問(wèn)題:

robots.txt文件的很大大小是多少?

500KB(大約)。

WordPress中的robots.txt在哪里?

相同位置:domain.com/robots.txt。

如何在WordPress中編輯robots.txt?

可以手動(dòng),也可以使用許多WordPressSEO插件(例如Yoast)之一,讓您從WordPress后端編輯robots.txt。

相關(guān)閱讀:什么是抓取錯(cuò)誤?

米嶺由橋賴(lài)小先僵唯織幟悶哭閣手臭副山噴企垮紡展鑄急爺勸狹執(zhí)慧伶燈砍訊忘猾蹄陳井宰品翁弟勇柳棄杰酒蒜哥腎珠召再潛捧工欠順融育卻付子澇飾帆嶺燥儀漲鹽聞廳膨捎外暫聯(lián)撇蝕找弟塵鞭材蟲(chóng)捷糞疏隸醒凝91G0p。如何通過(guò)seo技術(shù)引流網(wǎng)站RobotS是什么以及。seo推廣ga云速捷氵,關(guān)seo優(yōu)化重要性,seo服務(wù)公司tv云速捷扌

如果您覺(jué)得 如何通過(guò)seo技術(shù)引流網(wǎng)站RobotS是什么以及 這篇文章對(duì)您有用,請(qǐng)分享給您的好友,謝謝!

主站蜘蛛池模板: av无码aV天天aV天天爽| 无码性午夜视频在线观看| 久久久久久99av无码免费网站| 亚洲精品无码mⅴ在线观看| 色视频综合无码一区二区三区| 亚洲AV中文无码字幕色三 | 欧洲Av无码放荡人妇网站 | 无码中文av有码中文av| 一本加勒比HEZYO无码人妻| 日韩精品成人无码专区免费| 无码GOGO大胆啪啪艺术| 国产福利电影一区二区三区久久老子无码午夜伦不 | 伊人久久综合无码成人网 | 久久中文字幕无码一区二区| 国产成人无码AV一区二区在线观看| AV无码精品一区二区三区| 中文字幕无码毛片免费看| 精品无码专区亚洲| 蜜芽亚洲av无码一区二区三区| 亚洲欧洲日产国码无码网站 | 国产av无码专区亚洲av桃花庵| 国产在线无码精品无码| 精品少妇人妻AV无码专区不卡| 精品多人p群无码| 18禁网站免费无遮挡无码中文 | 久久久久久亚洲Av无码精品专口 | 无码中文字幕人妻在线一区二区三区| 国产免费无码一区二区| 亚洲熟妇无码八AV在线播放| 狠狠躁夜夜躁无码中文字幕| gogo少妇无码肉肉视频| 精品人妻系列无码人妻免费视频 | 日韩人妻无码精品一专区| 亚洲爆乳精品无码一区二区三区 | 亚洲AV无码专区亚洲AV伊甸园| V一区无码内射国产| 性无码专区一色吊丝中文字幕| 国产成人无码精品久久久免费| 中文字幕无码久久久| 一夲道无码人妻精品一区二区| 国产aⅴ无码专区亚洲av|