www.51av欧美视频_9191在线观看_黄色网在线免费观看_久操国产精品_成人性生交大合_欧美性一二三区_国产在线视频网址_欧美不卡在线观看

  • 電話咨詢(xún)
  • 028-65577666
  • 初中學(xué)什么好
  • 高中學(xué)什么好
  • 男生學(xué)電腦
  • 女生學(xué)電腦

當(dāng)前位置:主頁(yè) > 資訊中心 > 熱點(diǎn)話題 > Robots協(xié)議詳解 > 正文

Robots協(xié)議詳解

   禁止搜索引擎收錄的方法(robots.txt)

  一、什么是robots.txt文件?
 
  搜索引擎通過(guò)一種程序robot(又稱(chēng)spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。
 
  二、robots.txt文件放在哪里?
 
  robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)robots訪問(wèn)一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪問(wèn)權(quán)限的范圍。
 
  網(wǎng)站 URL 相應(yīng)的 robots.txt的 URL
  http://www.w3.org/ http://www.w3.org/robots.txt
  http://www.w3.org:80/ http://www.w3.org:80/robots.txt
  http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt
  http://w3.org/ http://w3.org/robots.txt
 
  三、robots.txt文件的格式
 
  "robots.txt"文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:":"。
 
  在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開(kāi)始,后面加上若干Disallow行,詳細(xì)情況如下:
 
  User-agent:
  該項(xiàng)的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何機(jī)器人均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
  Disallow :
 
  該項(xiàng)的值用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開(kāi)頭的URL均不會(huì)被robot訪問(wèn)到。例如"Disallow: /help"對(duì)/help.html和/help/index.html都不允許搜索引擎訪問(wèn),而"Disallow:/help/"則允許robot訪問(wèn)/help.html,而不能訪問(wèn)/help/index.html。任何一條Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn),在"/robots.txt"文件中,至少要有一Disallow記錄。如果"/robots.txt"是一個(gè)空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開(kāi)放的。
 
  四、robots.txt文件用法舉例
 
  例1.            禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分
  下載該robots.txt文件 User-agent: *
  Disallow: /
 
  例2.            允許所有的robot訪問(wèn)
  (或者也可以建一個(gè)空文件 "/robots.txt" file)
  User-agent: *
  Disallow:
 
  例3.            禁止某個(gè)搜索引擎的訪問(wèn)
  User-agent: BadBot
  Disallow: /
 
  例4.            允許某個(gè)搜索引擎的訪問(wèn)
  User-agent: baiduspider
  Disallow:
  User-agent: *
  Disallow: /
 
  例5. 一個(gè)簡(jiǎn)單例子
  在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪問(wèn)做了限制,即搜索引擎不會(huì)訪問(wèn)這三個(gè)目錄。
  需要注意的是對(duì)每一個(gè)目錄必須分開(kāi)聲明,而不要寫(xiě)成 "Disallow: /cgi-bin/ /tmp/"。
  User-agent:后的* 具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow:
  /tmp/*" or "Disallow: *.gif"這樣的記錄出現(xiàn).
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/
 
  五、robots.txt文件參考資料
 
  robots.txt文件的更具體設(shè)置,請(qǐng)參看以下資料:
  · Web Server Administrator's Guide to the Robots Exclusion Protocol
  · HTML Author's Guide to the Robots Exclusion Protocol
  · The original 1994 protocol description, as currently deployed
  · The revised Internet-Draft specification, which is not yet completed or implemented
  在你的主頁(yè)中為Web Robot設(shè)計(jì)路標(biāo)
 
  Internet越來(lái)越酷,WWW的知名度如日中天。在Internet上發(fā)布公司信息、進(jìn)行電子商務(wù)已經(jīng)從時(shí)髦演化成時(shí)尚。作為一個(gè)WebMaster,你可能對(duì)HTML、Javascript、Java、 ActiveX了如指掌,但你是否知道什么是WebRobot?你是否知道Web Robot和你所設(shè) 計(jì)的主頁(yè)有什么關(guān)系?
 
  Internet上的流浪漢--- Web Robot
 
  有時(shí)你會(huì)莫名其妙地發(fā)現(xiàn)你的主頁(yè)的內(nèi)容在一個(gè)搜索引擎中被索引,即使你從未與他 們有過(guò)任何聯(lián)系。其實(shí)這正是Web Robot的功勞。WebRobot其實(shí)是一些程序,它可以 穿越大量Internet網(wǎng)址的超文本結(jié)構(gòu),遞歸地檢索網(wǎng)絡(luò)站點(diǎn)所有的內(nèi)容。這些程序有時(shí)被叫“蜘蛛(Spider)” , “網(wǎng)上流浪漢(Web Wanderer)”,“網(wǎng)絡(luò)蠕蟲(chóng)(web worms)”或Webcrawler。
 
        一些Internet網(wǎng)上知名的搜索引擎站點(diǎn)(Search Engines)都 有專(zhuān)門(mén)的WebRobot程序來(lái)完成信息的采集,例如Lycos,Webcrawler,Altavista等,以及中文搜索引擎站點(diǎn)例如北極星,網(wǎng)易,GOYOYO等。WebRobot就象一個(gè)不速之客,不管你是否在意,它都會(huì)忠于自己主人的職責(zé),任勞任怨、不知疲倦地奔波于萬(wàn)維網(wǎng)的空間,當(dāng)然也會(huì)光臨你的主頁(yè),檢索主頁(yè)內(nèi)容并生成它所需要的記錄格式。或許有的主頁(yè)內(nèi)容你樂(lè)于世人皆知,但有的內(nèi)容你卻不愿被洞察、索引。難道你就只能任其“橫行”于自己主頁(yè)空間,能否指揮和控制WebRobot的行蹤呢?答案當(dāng)然是肯定的。只要你閱讀了本篇的下文,就可以象一個(gè)交通 警察一樣,布置下一個(gè)個(gè)路標(biāo),告訴WebRobot應(yīng)該怎么去檢索你的主頁(yè),哪些可以檢索,哪些不可以訪問(wèn)。其實(shí)Web Robot能聽(tīng)懂你的話不要以為Web Robot是毫無(wú)組織,毫無(wú)管束地亂跑。很多Web Robot軟件給網(wǎng)絡(luò)站點(diǎn)的 管理員或網(wǎng)頁(yè)內(nèi)容制作者提供了兩種方法來(lái)限制Web Robot的行蹤:
 
  1.         Robots Exclusion Protocol 協(xié)議
  網(wǎng)絡(luò)站點(diǎn)的管理員可以在站點(diǎn)上建立一個(gè)專(zhuān)門(mén)格式的文件,來(lái)指出站點(diǎn)上的哪一部分 可以被robot訪問(wèn), 這個(gè)文件放在站點(diǎn)的根目錄下,即robots.txt." target="_blank">http://.../robots.txt.
 
  2.         Robots META tag
  一個(gè)網(wǎng)頁(yè)作者可以使用專(zhuān)門(mén)的HTML META tag ,來(lái)指出某一個(gè)網(wǎng)頁(yè)是否可以被索 引、分析或鏈接。這些方法適合于大多數(shù)的Web Robot,至于是否在軟件中實(shí)施了這些方法,還依賴(lài)于 Robot的開(kāi)發(fā)者,并非可以保證對(duì)任何Robot都靈驗(yàn)。如果你迫切需要保護(hù)自己內(nèi)容,則應(yīng)考慮采用諸如增加密碼等其他保護(hù)方法。
 
  使用Robots Exclusion Protocol協(xié)議
 
  當(dāng)Robot訪問(wèn)一個(gè) Web 站點(diǎn)時(shí),比如http://www.sti.net.cn/,它先去檢查文件robots.txt"target="_blank">http://www.sti.net.cn/robots.txt。如果這個(gè)文件存在,它便會(huì)按照這樣的記錄格式去分析:
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/
 
  以確定它是否應(yīng)該檢索站點(diǎn)的文件。這些記錄是專(zhuān)門(mén)給Web Robot看的,一般的瀏覽者大概永遠(yuǎn)不會(huì)看到這個(gè)文件,所以千萬(wàn)不要異想天開(kāi)地在里面加入形似 類(lèi)的HTML語(yǔ)句或是“How do you do? where areyou from?”之類(lèi)假情假意的問(wèn)候語(yǔ)。
 
  在一個(gè)站點(diǎn)上只能有一個(gè) "/robots.txt" 文件,而且文件名的每個(gè)字母要求全部是小寫(xiě)。在Robot的記錄格式中每一個(gè)單獨(dú)的"Disallow"行表示你不希望Robot訪問(wèn)的URL, 每個(gè)URL必須單獨(dú)占一行,不能出現(xiàn)"Disallow: /cgi-bin/ /tmp/"這樣的病句。同時(shí)在一個(gè)記錄中不能出現(xiàn)空行,這是因?yàn)榭招惺嵌鄠€(gè)記錄分割的標(biāo)志。User-agent行指出的是Robot或其他代理的名稱(chēng)。在User-agent行,'*' 表示一個(gè)特殊的含義---所有的robot。
 
  下面是幾個(gè)robot.txt的例子:
  在整個(gè)服務(wù)器上拒絕所有的robots:
  User-agent: *
  Disallow: /
  允許所有的robots訪問(wèn)整個(gè)站點(diǎn):
  User-agent: *
  Disallow:
  或者產(chǎn)生一個(gè)空的 "/robots.txt" 文件。
  服務(wù)器的部分內(nèi)容允許所有的robot訪問(wèn)
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /private/
  拒絕某一個(gè)專(zhuān)門(mén)的robot:
  User-agent: BadBot
  Disallow: /
  只允許某一個(gè)robot光顧:
  User-agent: WebCrawler
  Disallow:
  User-agent: *
  Disallow: /
  最后我們給出 http://www.w3.org/站點(diǎn)上的robots.txt:
  # For use by search.w3.org
  User-agent: W3Crobot/1
  Disallow:
  User-agent: *
  Disallow: /Member/ # This is restricted to W3C Members only
  Disallow: /member/ # This is restricted to W3C Members only
  Disallow: /team/ # This is restricted to W3C Team only
  Disallow: /TandS/Member # This is restricted to W3C Members only
  Disallow: /TandS/Team # This is restricted to W3C Team only
  Disallow: /Project
  Disallow: /Systems
  Disallow: /Web
  Disallow: /Team
  使用Robots META tag方式
  Robots META tag 允許HTML網(wǎng)頁(yè)作者指出某一頁(yè)是否可以被索引,或是否可以用來(lái)查找更多的鏈接文件。目前只有部分robot實(shí)施了這一功能。
  Robots META tag的格式為:
  象其他的META tag一樣,它應(yīng)該放在HTML文件的HEAD區(qū):
  ...
  Robots META tag指令使用逗號(hào)隔開(kāi),可以使用的指令包括 [NO]INDEX 和[NO]FOLLOW。INDEX指令指出一個(gè)索引性robot是否可以對(duì)本頁(yè)進(jìn)行索引;FOLLOW 指令指出robot是否可以跟蹤本頁(yè)的鏈接。缺省的情況是INDEX和FOLLOW。例如:一個(gè)好的Web 站點(diǎn)管理員應(yīng)該將robot的管理考慮在內(nèi),使robot為自己的主頁(yè)服務(wù), 同時(shí)又不損害自己網(wǎng)頁(yè)的安全。
四川新華電腦學(xué)院專(zhuān)業(yè)職業(yè)規(guī)劃師為你提供更多幫助【在線咨詢(xún)】

地址: 成都市新津區(qū)新科大道107號(hào)?郵編:611430?電話:028-65577666

蜀ICP備11014515號(hào)-1?www.80tv.com.cn

主辦單位:安徽新華教育集團(tuán)有限公司

成都新華電腦職業(yè)技能培訓(xùn)學(xué)校 版權(quán)所有 Copyright ? 2009-2015 scxh.cn. All Rights Reserved.

聲明:任何企業(yè)或個(gè)人不得以任何商業(yè)目的復(fù)制或傳遞本網(wǎng)站所載述的商標(biāo)、文字、影像及圖形圖象,分享轉(zhuǎn)載需注明來(lái)源本網(wǎng)站

本網(wǎng)站部分圖片來(lái)源于網(wǎng)絡(luò),若您的權(quán)利被侵害,請(qǐng)及時(shí)聯(lián)系我們

一片黄亚洲嫩模| 精品一区二区三区亚洲| 韩国欧美一区二区| 久久综合成人| 欧美电影院免费观看| 欧美女同一区| 香蕉视频在线免费| 亚洲精品99久久久久| 日韩欧美在线看| 最好看的中文字幕久久| 国产一区二区精品久久99| 美女精品久久| 日韩理论电影院| 激情亚洲另类图片区小说区| 国产福利亚洲| 国产精欧美一区二区三区蓝颜男同| 成人精品福利| 日本调教视频在线观看| 日韩精品极品在线观看播放免费视频| 在线视频国内一区二区| 亚欧色一区w666天堂| 亚洲欧美日韩小说| 国产精品美女一区二区三区 | 国产黑丝在线一区二区三区| 欧美日韩亚洲三区| 国产精品久久久乱弄| 精品99久久| 日韩中文av| 国产欧美日韩免费观看| 蜜臀av免费一区二区三区| 亚洲精品xxx| 亚洲精品综合在线| 成人视屏免费看| 香蕉久久一区二区不卡无毒影院| 成人看的羞羞网站| 国产三级av在线| 欧美挠脚心视频网站| 久草这里只有精品视频| 久久99国产精品麻豆| 中文字幕亚洲在| 亚洲电影在线观看| 亚洲日本成人女熟在线观看 | 久久99国产精品久久99果冻传媒| 亚洲国产一区二区视频| 狠狠躁夜夜躁人人爽天天天天97| 粉嫩av一区二区三区粉嫩 | 一区二区三区导航| 五月婷婷六月综合| 色小子综合网| www国产精品av| 最新中文字幕一区二区三区| 精品国产网站在线观看| 亚洲精品视频播放| 91桃色在线观看| 欧美天堂在线| 久久中文字幕导航| 久久精品二区亚洲w码| 欧美羞羞免费网站| 国产午夜精品久久久| 日本不卡免费高清视频在线| 青青久久精品| 日本成人在线一区| av资源站一区| 一级特黄大欧美久久久| 在线观看视频色潮| 日本亚洲不卡| 国产欧美日韩综合| 欧美午夜片在线观看| 日本在线人成| 播放一区二区| 国产精品亚洲片在线播放| 北条麻妃国产九九精品视频| 亚洲国产精品人久久电影| 成人18视频在线观看| 成人爽a毛片免费啪啪红桃视频| 狠狠做六月爱婷婷综合aⅴ| av午夜精品一区二区三区| 精品爽片免费看久久| 久久久精品区| 久久亚洲一区二区三区明星换脸| 美女视频免费观看网站在线| av中文字幕在线播放| 精品视频在线观看免费观看 | 青青草原综合久久大伊人精品优势 | 超碰免费97在线观看| 精品高清久久| 亚洲综合成人在线| 18在线观看的| 噜噜噜在线观看免费视频日韩| 成人精品一区二区三区四区| 一区二区不卡在线视频 午夜欧美不卡在 | 欧美另类高清zo欧美| 八戒八戒神马在线电影| 在线高清欧美| 一区久久精品| 99久久99久久精品免费观看| 欧美日韩一区二区三区| 999精品网| 国产美女久久久久| 最新亚洲伊人网| 91精品啪在线观看国产18| 欧美亚男人的天堂| 玖玖玖视频精品| 国产精品久久精品日日| 日韩一级完整毛片| xxxxx日韩| 日韩电影在线免费观看| 亚洲精品欧美激情| 狠狠操夜夜操| 亚洲wwww| 欧美日韩国产欧| 亚洲成a天堂v人片| 美女av在线免费看| 2023国产精品视频| 麻豆电影在线播放| 欧美伦理在线视频| 日韩欧美亚洲范冰冰与中字| 国产成人亚洲一区二区三区| 亚洲欧美视频在线观看| 欧美色999| 免费黄网站欧美| 在线观看日韩av先锋影音电影院| 成人在线中文| 亚洲精品视频一区| 亚洲不卡系列| 亚洲精品亚洲人成人网在线播放| а_天堂中文在线| 国产日韩三级在线| 国产一级大片| 国产精品尤物| 一本久道中文字幕精品亚洲嫩| 成人a在线观看高清电影| 国产欧美日韩精品在线| 女人让男人操自己视频在线观看| 国产午夜精品理论片a级大结局| 丁香花视频在线观看| 亚洲久久一区| 欧美丝袜第一区| 亚洲一区二区电影| 2017欧美狠狠色| 182在线视频观看| 亚洲欧洲国产专区| 韩国精品视频在线观看 | 国产精品亚洲一区二区在线观看 | 国产高清免费av在线| 欧美第十八页| 日韩成人性视频| 粉嫩精品导航导航| 欧美人妖巨大在线| 中文字幕乱码亚洲无线精品一区| 亚洲综合偷拍欧美一区色| 日本免费成人| 欧美色倩网站大全免费| 国产日韩另类视频一区| 一区二区三区丝袜| 九九热播视频在线精品6| 欧美成人女星排行榜| 国产精品久久久久久久久久辛辛 | 麻豆一区二区三| 欧美日韩一区视频| 激情小说亚洲色图| 亚洲激情在线观看| 免费xxxx性欧美18vr| 国产偷倩在线播放| 日韩欧美国产中文字幕| 国产精品x453.com| 在线观看免费毛片| 亚洲国产免费看| 精品精品国产高清a毛片牛牛| 欧美私人啪啪vps| 成年人视频在线观看免费| 亚洲婷婷综合久久一本伊一区| 黄色网页在线免费看| 亚洲同性同志一二三专区| 九热爱视频精品视频| 中文字幕理伦片免费看| 99视频+国产日韩欧美| av资源网站在线观看| 琪琪一区二区三区| wwwwxxxx在线观看| 欧美日韩一级视频| 久久在线91| www免费在线观看视频| 成人手机电影网| 91成人短视频| 91福利视频久久久久| 在线观看日韩av电影| 日韩av一卡| 日韩女优电影在线观看| 亚洲精品国产精品粉嫩| 午夜精品福利久久久| 欧美日韩国产探花| av片在线观看永久免费| 欧美在线看片a免费观看| 久久视频一区| a∨色狠狠一区二区三区| 亚洲黄一区二区| 国产日韩欧美不卡在线| 国产高清久久| 18+激情视频在线|