- 工信部備案號 滇ICP備05000110號-1
- 滇公安備案 滇53010302000111
- 增值電信業(yè)務(wù)經(jīng)營許可證 B1.B2-20181647、滇B1.B2-20190004
- 云南互聯(lián)網(wǎng)協(xié)會理事單位
- 安全聯(lián)盟認證網(wǎng)站身份V標記
- 域名注冊服務(wù)機構(gòu)許可:滇D3-20230001
- 代理域名注冊服務(wù)機構(gòu):新網(wǎng)數(shù)碼
robots.txt是站長在做網(wǎng)站優(yōu)化的時候常用的工具之一,作用就是告訴搜索引擎,那些文件是可以抓取的,那些文件是不讓抓取的。下面就來為大家分享,robots.txt的寫法。
寫Robots之前,我們可以先登錄網(wǎng)站的根目錄,先整理好哪些文件夾不想背搜索引擎爬抓。
然后最后Robots.txt的寫法如下。
# robots.txt
User-agent: *
Allow: /
Disallow: /aspnet_client
Disallow: /bot
Sitemap:http://域名地址.com//sitemap.xml
其中:
Disallow后面的文件夾是禁止搜索引擎抓取的。
然后保存成robots.txt
然后登錄自己的網(wǎng)站ftp,把制作好的robots.txt文件復制到網(wǎng)站的根目錄即可。
最后登錄百度站長工具,檢測是否提交成功,檢測出robots.txt文件即可。
通??梢岳眠@些工具來寫Robots。
售前咨詢
售后咨詢
備案咨詢
二維碼
TOP