返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>如何通過seo技術引流網站RobotS是什么以及

robots.txt文件會告訴搜索引擎在您的網站上可以或不能去的地方。

首先,它列出了您想讓搜索引擎抓取以及不想抓取的所有內容。其次它可以規定哪些搜索引擎可以抓取,哪些不能。比如指定百度可以抓取,谷歌不能。

但并不是所有搜索引擎都遵循robots.txt協議,即使屏蔽了還肆意抓取。

無如何通過seo技術引流:名SEO的robots文件設置如下圖:

robots文件截圖

訪問地址為:

每個搜索引擎用不同的蜘蛛標識自己。您可以在robots.txt文件中為每個設置自定義說明。這里有一些對SEO有用的蜘蛛:

Google:GooglebotGoogleImages:Googlebot-ImageBing:BingbotYahoo:SlurpBaidu:BaiduspiderDuckDuckGo:DuckDuckBotToutiao:Bytespider

您還可以使用星號(*)通配符將指令分配給所有蜘蛛。例如,假設您要阻止除Googlebot之外的所有蜘蛛抓取您的網站。這是您的處理方式:

User-agent:*

Disallow:/

User-agent:Googlebot

Allow:/

指令是您希望聲明的用戶代理遵循的規則。

如何通過seo技術引流網站RobotS是什么以及

支持的指令

以下是百度當前支持的指令及其用法。

不答應

使用此指令來指示搜索引擎不要訪問屬于特定路徑的文件和頁面。例如,假如您想阻止所有搜索引擎訪問您的php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/.php$

注重假如您在disallow指令后未能定義路徑,搜索引擎將忽略它。

答應

使用此指令可答應搜索引擎搜尋子目錄或頁面,即使在本來不答應的目錄中也是如此。例如,假如您想防止搜索引擎訪問網站除文章以外的所有頁面,那么robots.txt文件可能如下所示:

在此示例中,搜索引擎可以訪問除文章以外的所有頁面,但無法訪問以下目錄:

這些news下的所有目錄。當然具體鏈接因網站設定而異。這里舉例叫作news。

假如您在allow指令之后未能定義路徑,搜索引擎將忽略它。

有關規則沖突的說明

除非您小心,否則禁止和答應指令很簡單彼此沖突。在下面的示例中,我們禁止訪問并答應訪問。

在這種情況下,URL似乎既被禁止也被答應。那么哪個贏?

對于搜索引擎規則是字符很多的指令獲勝。這是不答應的指令。

(6個字符)

(5個字符)

假如allow和disallow指令的長度相等,則限制性很小的指令獲勝。

網站地圖

使用此指令可以指定站點地圖在搜索引擎中的位置。假如您不熟悉站點地圖,它們通常會包含您希望搜索引擎進行爬網和編制索引的頁面。

這是使用sitemap指令的robots.txt文件的示例:

對于許多網站,尤其是小型網站,擁有robots.txt文件并不是至關重要的。

就是說,沒有充分的理由不這樣做。它使您可以更好地控制搜索引擎可以在您的網站上訪問以及不能在網站上訪問,這可以幫助您解決以下問題:

1.防止重復內容的爬行;

2.將網站的各個部分(例如您的登臺站點)保持私密性;

3.防止抓取內部搜索結果頁面;

4.防止服務器過載;

5.防止蜘蛛浪費“抓取預算”。

6.防止不相關文件出現在Google搜索結果中。

請注重,盡管搜索引擎通常不會為robots.txt中被阻止的網頁編制索引,但是無法保證使用robots.txt文件將其排除在搜索結果之外。

就像Google所說的那樣,假如內容是從網絡上的其他地方鏈接到的,則它可能仍會出現在Google搜索結果中。

假如您還沒有robots.txt文件,則創建它很簡單。只需打開一個空白的.txt文檔并開始輸入指令即可。例如,假如您想禁止所有搜索引擎檢索目錄:

User-agent:*

Disallow:/admin/

繼續建立指令,直到對所擁有的東西滿足為止。將文件另存為“robots.txt”。

將robots.txt文件放置在其所應用的子域的根目錄中。例如,要控制domain.com上的爬網行為,應該可以在domain.com/robots.txt上訪問robots.txt文件。

假如要控制在Blog.domain.com之類的子域上進行爬網,則應該可以在blog.domain.com/robots.txt上訪問robots.txt文件。

使用“$”指定URL的結尾

包括“$”符號以標記URL的結尾。例如,假如您想防止搜索引擎訪問您網站上的所有.php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/*.php$

檢查ROBOT文件

您可以通過站長平臺或者愛站工具進行檢測,愛站檢測效果如下:

檢測地址:tools.aizhan.com/robots/

以下是收集的一些常見問題:

robots.txt文件的很大大小是多少?

500KB(大約)。

WordPress中的robots.txt在哪里?

相同位置:domain.com/robots.txt。

如何在WordPress中編輯robots.txt?

可以手動,也可以使用許多WordPressSEO插件(例如Yoast)之一,讓您從WordPress后端編輯robots.txt。

相關閱讀:什么是抓取錯誤?

米嶺由橋賴小先僵唯織幟悶哭閣手臭副山噴企垮紡展鑄急爺勸狹執慧伶燈砍訊忘猾蹄陳井宰品翁弟勇柳棄杰酒蒜哥腎珠召再潛捧工欠順融育卻付子澇飾帆嶺燥儀漲鹽聞廳膨捎外暫聯撇蝕找弟塵鞭材蟲捷糞疏隸醒凝91G0p。如何通過seo技術引流網站RobotS是什么以及。seo推廣ga云速捷氵,關seo優化重要性,seo服務公司tv云速捷扌

如果您覺得 如何通過seo技術引流網站RobotS是什么以及 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 亚洲国产精品无码AAA片| 九九在线中文字幕无码| 久久伊人中文无码| 亚洲av永久无码制服河南实里 | 亚洲国产精品无码久久久秋霞1| 性色av极品无码专区亚洲| av无码东京热亚洲男人的天堂| 暴力强奷在线播放无码| 亚洲AV日韩AV永久无码色欲| 亚洲欧洲精品无码AV| 亚洲AV色无码乱码在线观看| 99无码精品二区在线视频| 亚洲成av人片不卡无码久久| 亚洲人成人伊人成综合网无码| 亚洲AV无码乱码在线观看性色扶| 亚洲国产成人无码av在线播放| 潮喷失禁大喷水aⅴ无码| av色欲无码人妻中文字幕| 无码国产精品一区二区免费模式 | 久久精品中文字幕无码| 最新亚洲人成无码网www电影| 无码专区久久综合久中文字幕| 人妻无码一区二区视频| 亚洲av无码乱码在线观看野外| 亚洲日韩av无码中文| 亚洲久热无码av中文字幕| 无码AV岛国片在线播放| 亚洲AV日韩AV永久无码久久| 亚洲Av无码专区国产乱码DVD| 久久久久亚洲av成人无码电影 | 无码人妻精品一区二区蜜桃百度| 在人线av无码免费高潮喷水 | 国产精品无码2021在线观看| 亚洲熟妇av午夜无码不卡| 亚洲日韩av无码中文| 丰满爆乳无码一区二区三区| 亚洲AV色无码乱码在线观看| 国产精品无码av天天爽| 亚洲男人第一无码aⅴ网站| 亚洲AV永久无码精品一区二区国产 | 西西444www无码大胆|