最詳細的robots文件的寫法解析(符合搜索需求)

2020-11-12    分類: 網站建設

做SEO的朋友基本都了解點robots,但是在實際SEO網站優化中robots.txt文件具體應該如何編寫恐怕是一堆SEO的困擾,瞎寫,亂寫robots規則直接影響網站優化的成果。robots.txt文件具體要怎么寫?今天創新互聯把最詳細的robots文件的寫法告知大家。
robots.txt是什么

一、robots.txt文件它的作用是什么,為什么要寫?


robots.txt是用來告訴搜索引擎網站上哪些內容可以被訪問、哪些不能被訪問。當搜索引擎訪問一個網站的時候,它首先會檢查網站是否存在robots.txt,如果有則會根據文件命令訪問有權限的文件。
每個網站需要根據自身的要求寫好robots.txt文件,robots.txt文件長什么樣子?我們可以看看幾個網站的robots.txt文件。
淘寶robots.txt文件

淘寶robots.txt文件

百度robots.txt文件

百度robots.txt文件

而一個網站為什么要寫robots.txt,主要有四點:

1、保護網站安全

2、節省流量

3、禁止搜索引擎收錄部分頁面

4、引導蜘蛛爬網站地圖

二、robots.txt的寫法與步驟

1、定義搜索引擎

用User-agent:來定義搜索引擎,其中*表示所有,Baiduspider表示百度蜘蛛,Googlebot表示谷歌蜘蛛。

也就是說User-agent:*表示定義所有蜘蛛,User-agent:Baiduspider表示定義百度蜘蛛。
常用搜索蜘蛛規則分解如下:
User-agent: Baiduspider
User-agent: Baiduspider-image
User-Agent: Googlebot
User-agent: Bingbot
User-Agent: 360Spider
User-Agent: Yisouspider
User-Agent: Sogouspider
User-agent: Sogou web spider
User-agent: Sogou inst spider
User-agent: Sogou spider2
User-agent: Sogou blog
User-agent: Sogou News Spider
User-agent: Sogou Orion spider
User-agent: ChinasoSpider
User-agent: Sosospider
User-Agent: Yahoo! Slurp
User-agent: MSNBot
User-agent: YoudaoBot
User-agent: EasouSpider

2、禁止與允許訪問

Disallow: /表示禁止訪問,Allow: /表示允許訪問。

在寫robots.txt時需特別注意的是,/前面有一個英文狀態下的空格(必須是英文狀態下的空格)。

3、禁止搜索引擎訪問網站中的某幾個文件夾,以a、b、c為例,寫法分別如下:

Disallow: /a/

Disallow: /b/

Disallow: /c/

4、禁止搜索引擎訪問文件夾中的某一類文件,以a文件夾中的js文件為例,寫法如下:

Disallow: /a/*.js

5、只允許某個搜索引擎訪問,以Baiduspider為例,寫法如下:

User-agent: Baiduspider

Disallow:

6、禁止訪問網站中的動態頁面

User-agent: *

Disallow: /*?*

7、只允許搜索引擎訪問某類文件,以htm為例,寫法如下:

User-agent: *

Allow: .htm$

Disallow: /

8、禁止某個搜索引擎抓取網站上的所有圖片,以Baiduspider為例,寫法如下:

User-agent: F

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

三、robots.txt文件存放位置

robots.txt文件存放在網站根目錄下,并且文件名所有字母都必須小寫。

四、特別注意事項

在寫robots.txt文件時語法一定要用對,User-agent、Disallow、Allow、Sitemap這些詞都必須是個字母大寫,后面的字母小寫,而且在:后面必須帶一個英文字符下的空格。

網站上線之前切記寫robots.txt文件禁止蜘蛛訪問網站,如果不會寫就先了解清楚寫法之后再寫,以免給網站收錄帶來不必要的麻煩。

robots.txt文件生效時間在幾天至一個月之間,站長自身無法控制。但是,站長可以在百度統計中查看網站robots.txt文件是否生效。

本文標題:最詳細的robots文件的寫法解析(符合搜索需求)
當前路徑:http://m.kartarina.com/news45/89595.html

成都網站建設公司_創新互聯,為您提供網站制作搜索引擎優化網站改版小程序開發靜態網站全網營銷推廣

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

猜你還喜歡下面的內容

營銷型網站建設

網站建設知識

各行業網站

主站蜘蛛池模板: 亚洲精品自偷自拍无码| yy111111少妇影院无码| 久99久无码精品视频免费播放| 亚洲日韩乱码中文无码蜜桃| 天堂Av无码Av一区二区三区| 国产精品爆乳奶水无码视频| 一区二区三区无码视频免费福利| 精品无码一区二区三区电影| 国产福利无码一区在线| 亚洲日韩精品无码一区二区三区| 亚州AV综合色区无码一区| 亚洲中文字幕无码永久在线| 久久久久av无码免费网| 日韩综合无码一区二区| 亚洲AV无码专区国产乱码不卡| 久久精品岛国av一区二区无码| 日韩精品无码Av一区二区| 精品无码成人片一区二区98| 亚洲毛片av日韩av无码| av色欲无码人妻中文字幕| 熟妇无码乱子成人精品| 亚洲精品无码专区在线在线播放| 韩国无码AV片在线观看网站| 久久久无码精品亚洲日韩京东传媒| 潮喷失禁大喷水aⅴ无码| 无码中文人妻在线一区二区三区| 亚洲AV永久无码精品成人 | 人妻少妇精品无码专区漫画| 在线观看免费无码视频| 国产成人精品无码专区| 毛片亚洲AV无码精品国产午夜| 亚洲AV成人噜噜无码网站| 久久久久久国产精品无码超碰| 在线观看片免费人成视频无码| 久久精品无码专区免费| 久久久久无码精品| 中文字幕丰满乱子无码视频| 亚洲国产成人精品无码久久久久久综合| 亚洲午夜无码久久久久小说| 日韩放荡少妇无码视频| 久久久无码精品人妻一区|