robots.txt文件會告訴搜索引擎在您的網站上可以或不能去的地方。
首先,它列出了您想讓搜索引擎抓取以及不想抓取的所有內容。其次它可以規定哪些搜索引擎可以抓取,哪些不能。比如指定百度可以抓取,谷歌不能。
但并不是所有搜索引擎都遵循robots.txt協議,即使屏蔽了還肆意抓取。
無如何通過seo技術引流:名SEO的robots文件設置如下圖:
robots文件截圖
訪問地址為:
每個搜索引擎用不同的蜘蛛標識自己。您可以在robots.txt文件中為每個設置自定義說明。這里有一些對SEO有用的蜘蛛:
Google:GooglebotGoogleImages:Googlebot-ImageBing:BingbotYahoo:SlurpBaidu:BaiduspiderDuckDuckGo:DuckDuckBotToutiao:Bytespider
您還可以使用星號(*)通配符將指令分配給所有蜘蛛。例如,假設您要阻止除Googlebot之外的所有蜘蛛抓取您的網站。這是您的處理方式:
User-agent:*
Disallow:/
User-agent:Googlebot
Allow:/
指令是您希望聲明的用戶代理遵循的規則。

支持的指令
以下是百度當前支持的指令及其用法。
不答應
使用此指令來指示搜索引擎不要訪問屬于特定路徑的文件和頁面。例如,假如您想阻止所有搜索引擎訪問您的php文件,則robots.txt文件可能如下所示:
User-agent:*
Disallow:/.php$
注重假如您在disallow指令后未能定義路徑,搜索引擎將忽略它。
答應
使用此指令可答應搜索引擎搜尋子目錄或頁面,即使在本來不答應的目錄中也是如此。例如,假如您想防止搜索引擎訪問網站除文章以外的所有頁面,那么robots.txt文件可能如下所示:
在此示例中,搜索引擎可以訪問除文章以外的所有頁面,但無法訪問以下目錄:
這些news下的所有目錄。當然具體鏈接因網站設定而異。這里舉例叫作news。
假如您在allow指令之后未能定義路徑,搜索引擎將忽略它。
有關規則沖突的說明
除非您小心,否則禁止和答應指令很簡單彼此沖突。在下面的示例中,我們禁止訪問并答應訪問。
在這種情況下,URL似乎既被禁止也被答應。那么哪個贏?
對于搜索引擎規則是字符很多的指令獲勝。這是不答應的指令。
(6個字符)
(5個字符)
假如allow和disallow指令的長度相等,則限制性很小的指令獲勝。
網站地圖
使用此指令可以指定站點地圖在搜索引擎中的位置。假如您不熟悉站點地圖,它們通常會包含您希望搜索引擎進行爬網和編制索引的頁面。
這是使用sitemap指令的robots.txt文件的示例:
對于許多網站,尤其是小型網站,擁有robots.txt文件并不是至關重要的。
就是說,沒有充分的理由不這樣做。它使您可以更好地控制搜索引擎可以在您的網站上訪問以及不能在網站上訪問,這可以幫助您解決以下問題:
1.防止重復內容的爬行;
2.將網站的各個部分(例如您的登臺站點)保持私密性;
3.防止抓取內部搜索結果頁面;
4.防止服務器過載;
5.防止蜘蛛浪費“抓取預算”。
6.防止不相關文件出現在Google搜索結果中。
請注重,盡管搜索引擎通常不會為robots.txt中被阻止的網頁編制索引,但是無法保證使用robots.txt文件將其排除在搜索結果之外。
就像Google所說的那樣,假如內容是從網絡上的其他地方鏈接到的,則它可能仍會出現在Google搜索結果中。
假如您還沒有robots.txt文件,則創建它很簡單。只需打開一個空白的.txt文檔并開始輸入指令即可。例如,假如您想禁止所有搜索引擎檢索目錄:
User-agent:*
Disallow:/admin/
繼續建立指令,直到對所擁有的東西滿足為止。將文件另存為“robots.txt”。
將robots.txt文件放置在其所應用的子域的根目錄中。例如,要控制domain.com上的爬網行為,應該可以在domain.com/robots.txt上訪問robots.txt文件。
假如要控制在Blog.domain.com之類的子域上進行爬網,則應該可以在blog.domain.com/robots.txt上訪問robots.txt文件。
使用“$”指定URL的結尾

包括“$”符號以標記URL的結尾。例如,假如您想防止搜索引擎訪問您網站上的所有.php文件,則robots.txt文件可能如下所示:
User-agent:*
Disallow:/*.php$
檢查ROBOT文件
您可以通過站長平臺或者愛站工具進行檢測,愛站檢測效果如下:
檢測地址:tools.aizhan.com/robots/
以下是收集的一些常見問題:
robots.txt文件的很大大小是多少?
500KB(大約)。
WordPress中的robots.txt在哪里?
相同位置:domain.com/robots.txt。
如何在WordPress中編輯robots.txt?
可以手動,也可以使用許多WordPressSEO插件(例如Yoast)之一,讓您從WordPress后端編輯robots.txt。
相關閱讀:什么是抓取錯誤?
猜您喜歡
網站遷移服務器seoSEO百科全書關于查詢seo源碼哪有seo培訓北京seo站內優化免費seo診斷畫奧特曼seoseo前景大seo數據報表怎么做品牌網站seo優化方法seo和app推廣方案tool.seoseo扎實個人博客怎樣做seo卡盟怎么seo織夢單本小說模版 dede模版【seo】優化版方案seo分析seo服務 細致蘇一峰24n單頁seo之網站搭建博客seo營銷商品標題seo是什么seo優化的意義 doc沈陽網站seo優化排名公司學完seo是找什么崗位seo推廣廣告視頻蘭州快速seo教程速常見的web前端seo手段百度公司系統專業樂云seo網站綜合seo濟南泉城seo做 seo 收錄品牌營銷好樂云seo山西SEO顧問米嶺由橋賴小先僵唯織幟悶哭閣手臭副山噴企垮紡展鑄急爺勸狹執慧伶燈砍訊忘猾蹄陳井宰品翁弟勇柳棄杰酒蒜哥腎珠召再潛捧工欠順融育卻付子澇飾帆嶺燥儀漲鹽聞廳膨捎外暫聯撇蝕找弟塵鞭材蟲捷糞疏隸醒凝91G0p。如何通過seo技術引流網站RobotS是什么以及。seo推廣ga云速捷氵,關seo優化重要性,seo服務公司tv云速捷扌
如果您覺得 如何通過seo技術引流網站RobotS是什么以及 這篇文章對您有用,請分享給您的好友,謝謝!