北京利美seo

      robots的寫法,及作用

      時間:2020-07-24 作者:北京利美seo 來源:互聯(lián)網(wǎng)
      robots.txt 文件應(yīng)該放在網(wǎng)站根目錄下,用好robots是很容易為你網(wǎng)站提權(quán)的。主要作用是讓搜索引擎抓取什么東,不讓搜

      robots.txt文件應(yīng)該放在網(wǎng)站根目錄下,用好robots是很容易為你網(wǎng)站提權(quán)的。主要作用是讓搜索引擎抓取什么,不讓搜索引擎抓取什么

      一、robots.txt 的寫法:

      1. User-agent: *
      意思是允許所有搜索引擎收錄,星號代表所有。
      2. Disallow:/
      意思是禁止搜索引擎收錄頁面。

      3. 禁止所有搜索引擎訪問網(wǎng)站的所有部分
      User-agent: *
      Disallow: /

      4. 禁止百度索引你的網(wǎng)站
      User-agent: Baiduspider
      Disallow: /
      5. 禁止Google索引你的網(wǎng)站
      User-agent: Googlebot
      Disallow: /
      6. 禁止除Google外的一切搜索引擎索引你的網(wǎng)站
      User-agent: Googlebot
      Disallow:
      User-agent: *
      Disallow: /
      7. 禁止除百度外的一切搜索引擎索引你的網(wǎng)站
      User-agent: Baiduspider
      Disallow:
      User-agent: *
      Disallow: /
      8. 禁止蜘蛛訪問某個目錄
      (例如禁止admincssimages被索引)
      User-agent: *
      Disallow: /css/
      Disallow: /admin/
      Disallow: /images/
      9. 允許訪問某個目錄中的某些特定網(wǎng)址
      User-agent: *
      Allow: /css/my
      Allow: /admin/html
      Allow: /images/index
      Disallow: /css/
      Disallow: /admin/
      Disallow: /images/
      在SEO優(yōu)化過程中,對于蜘蛛的了解和控制至關(guān)重要,關(guān)于robot.txt的寫法還有很多,希望以上這些對大家有幫助。

                                                 


      二、robots.txt 注意事項:

      1. 如果你希望搜索引擎收錄網(wǎng)站上所有的內(nèi)容,那么就不要建立robots.txt文件。
      2. 如果同時存在動態(tài)和靜態(tài)鏈接,那么建議屏蔽動態(tài)鏈接。
      3. robots.txt只能是屏蔽站內(nèi)文件的,對站外文件沒有屏蔽功能。
      4. User-agent,Allow,Disallow,Sitemap的首字母都是大寫的。
      5. User-agent,Allow,Disallow,Sitemap的冒號后面都是有空格的,沒有寫空格直接寫接下來的內(nèi)容會出錯。
      6. 網(wǎng)站通常會屏蔽搜索結(jié)果頁面。因為搜索結(jié)果頁和正常展示的內(nèi)容頁相比,標(biāo)題和內(nèi)容上相同的,而這兩個頁面鏈接是不同的。那搜索引擎該將這篇文章歸屬于哪個內(nèi)鏈呢,這樣就會造成內(nèi)鏈之間相互競爭,造成內(nèi)部資源損耗。
      7. 建議屏蔽js文件。Disallow: /*.js$,以 .js 結(jié)尾的路徑統(tǒng)統(tǒng)被屏蔽,這樣就屏蔽了js文件。
      8. 路徑是區(qū)分大小寫的。Disallow: /ab/ 和 Disallow: /Ab/ 是不一樣的。
      9. robots.txt會暴露網(wǎng)站相關(guān)目錄,寫robots.txt時要考慮到這一點。
      10. 有些seo會將文件直接備份在服務(wù)器中,文件是 .zip 格式,然后在robots.txt中屏蔽。個人不建議這樣,這就是明顯告訴人家你的備份文件位置。建議文件和數(shù)據(jù)都備份到本地。

      11. 必須命名為:robots.txt 都是小寫,robot后面加"s"。


      本文標(biāo)簽:

      主站蜘蛛池模板: 在线精品国精品国产不卡| 暖暖日本在线视频| 午夜在线观看福利| 青草久久精品亚洲综合专区| 国产精品亚洲成在人线| 99久久国产免费中文无字幕| 成人av鲁丝片一区二区免费| 久久久久久亚洲av无码专区| 最新无码a∨在线观看| 亚洲国产成人精品无码区在线观看| 激情综合色综合啪啪开心| 午夜伦理在线观看免费高清在线电影| 青青热久久久久综合精品| 国产欧美va欧美va香蕉在| 91成人精品视频| 大学生高清一级毛片免费| 一个人免费视频观看在线www| 无码人妻精品一区二区在线视频| 久久天天躁夜夜躁狠狠躁2022| 最近2019中文字幕mv免费看| 亚洲国产精品毛片AV不卡在线| 毛片在线免费观看网站| 免费a级毛片无码av| 精品人妻无码专区在中文字幕| 四虎永久在线精品国产免费| 菠萝蜜视频在线看| 国产交换配偶在线视频| 高清永久免费观看| 国产成人无码精品一区在线观看 | а√天堂中文最新版地址bt| 成人午夜精品无码区久久| 中文字幕精品视频在线观看| 日本动态120秒免费| 久久国产精品鲁丝片| 日韩乱码人妻无码中文字幕| 久久精品国产9久久综合| 日韩福利在线视频| 国产精品三级av及在线观看| 91精品国产免费久久国语蜜臀| 在线日韩av永久免费观看| 9lporm自拍视频区在线|