尤物视频在线观看|国产尤物视频在线观看|99热在线获取最新地址,久久频这里精品99香蕉久,国产色婷婷精品综合在线,亚洲欧美日韩高清在线看

robots協(xié)議

作者:聚擎 瀏覽:1513 發(fā)布時間:2017-04-23
編輯 分享 評論 0

簡介

robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統(tǒng)自帶的Notepad,就可以創(chuàng)建和編輯它[1] 。robots.txt是一個協(xié)議,而不是一個命令。robots.txt是搜索引擎中訪問網(wǎng)站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。

當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網(wǎng)站上所有沒有被口令保護的頁面。百度官方建議,僅當您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請勿建立robots.txt文件。

如果將網(wǎng)站視為酒店里的一個房間,robots.txt就是主人在房間門口懸掛的“請勿打擾”或“歡迎打掃”的提示牌。這個文件告訴來訪的搜索引擎哪些房間可以進入和參觀,哪些房間因為存放貴重物品,或可能涉及住戶及訪客的隱私而不對搜索引擎開放。但robots.txt不是命令,也不是防火墻,如同守門人無法阻止竊賊等惡意闖入者。

原則

robots協(xié)議原理robots協(xié)議原理

Robots協(xié)議是國際互聯(lián)網(wǎng)界通行的道德規(guī)范,基于以下原則建立:

1、搜索技術應服務于人類,同時尊重信息提供者的意愿,并維護其隱私權;

2、網(wǎng)站有義務保護其使用者的個人信息和隱私不被侵犯。

功能

Robots協(xié)議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取;可以屏蔽一些網(wǎng)站中比較大的文件,如:圖片,音樂,視頻等,節(jié)省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網(wǎng)站內(nèi)容;設置網(wǎng)站地圖連接,方便引導蜘蛛爬取頁面。

文件寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

Disallow: /*?* 禁止訪問網(wǎng)站中所有包含問號 (?) 的網(wǎng)址

Disallow: /.jpg$ 禁止抓取網(wǎng)頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬取ab文件夾下面的adc.html文件。

Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網(wǎng)頁和gif格式圖片

Sitemap: 網(wǎng)站地圖 告訴爬蟲這個頁面是網(wǎng)站地圖

文件用法

例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分

User-agent: *

Disallow: /

實例分析:淘寶網(wǎng)的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

User-agent: baiduspider

Disallow: /

很顯然淘寶不允許百度的機器人訪問其網(wǎng)站下其所有的目錄。

例2. 允許所有的robot訪問 (或者也可以建一個空文件 “/robots.txt” file)

User-agent: *

Allow: /

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot

Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: Baiduspider

allow:/

例5.一個簡單例子

在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。

需要注意的是對每一個目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。

User-agent:后的*具有特殊的含義,代表“any robot”,所以在該文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”這樣的記錄出現(xiàn)。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

Robot特殊參數(shù):

允許 Googlebot:

如果您要攔截除Googlebot以外的所有漫游器不能訪問您的網(wǎng)頁,可以使用下列語法:

User-agent:

Disallow: /

User-agent: Googlebot

Disallow:

Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

“Allow”擴展名:

Googlebot 可識別稱為“Allow”的 robots.txt 標準擴展名。其他搜索引擎的漫游器可能無法識別此擴展名,因此請使用您感興趣的其他搜索引擎進行查找?!癆llow”行的作用原理完全與“Disallow”行一樣。只需列出您要允許的目錄或頁面即可。

您也可以同時使用“Disallow”和“Allow”。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:

User-agent: Googlebot

Allow: /folder1/myfile.html

Disallow: /folder1/

這些條目將攔截 folder1 目錄內(nèi)除 myfile.html 之外的所有頁面。

如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用”Allow”規(guī)則允許該漫游器的訪問。例如:

User-agent: Googlebot

Disallow: /

User-agent: Googlebot-Mobile

Allow:

使用 * 號匹配字符序列:

您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目: User-Agent: Googlebot

Disallow: /private*/

要攔截對所有包含問號 (?) 的網(wǎng)址的訪問,可使用下列條目:

User-agent: *

Disallow: /*?*

使用 $ 匹配網(wǎng)址的結束字符

您可使用 $字符指定與網(wǎng)址的結束字符進行匹配。例如,要攔截以 .asp 結尾的網(wǎng)址,可使用下列條目: User-agent: Googlebot

Disallow: /*.asp$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復的網(wǎng)頁。但是,以 ? 結尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,可對 robots.txt 文件進行如下設置:

User-agent: *

Allow: /*?$

Disallow: /*?

Disallow: / *?

一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。

Allow: /*?$ 一行將允許包含任何以 ? 結尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。

盡管robots.txt已經(jīng)存在很多年了,但是各大搜索引擎對它的解讀都有細微差別。Google與百度都分別在自己的站長工具中提供了robots工具。如果您編寫了robots.txt文件,建議您在這兩個工具中都進行測試,因為這兩者的解析實現(xiàn)確實有細微差別[1] 。

其它屬性

1. Robot-version: 用來指定robot協(xié)議的版本號

例子: Robot-version: Version 2.0

2.Crawl-delay:雅虎YST一個特定的擴展名,可以通過它對我們的抓取程序設定一個較低的抓取請求頻率。您可以加入Crawl-delay:xx指示,其中,“XX”是指在crawler程序兩次進入站點時,以秒為單位的最低延時。

3. Visit-time:只有在visit-time指定的時間段里,robot才可以訪問指定的URL,否則不可訪問.

例子: Visit-time: 0100-1300 #允許在凌晨1:00到13:00訪問

4. Request-rate: 用來限制URL的讀取頻率

例子: Request-rate: 40/1m 0100 - 0759 在1:00到07:59之間,以每分鐘40次的頻率進行訪問

Request-rate: 12/1m 0800 - 1300 在8:00到13:00之間,以每分鐘12次的頻率進行訪問

標簽

Robots.txt文件主要是限制整個站點或者目錄的搜索引擎訪問情況,而Robots Meta標簽則主要是針對一個個具體的頁面。和其他的META標簽(如使用的語言、頁面的描述、關鍵詞等)一樣,Robots Meta標簽也是放在頁面中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內(nèi)容。

Robots Meta標簽中沒有大小寫之分,name=”Robots”表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name=”BaiduSpider”。content部分有四個指令選項:index、noindex、follow、nofollow,指令間以“,”分隔。

index指令告訴搜索機器人抓取該頁面;

follow指令表示搜索機器人可以沿著該頁面上的鏈接繼續(xù)抓取下去;

Robots Meta標簽的缺省值是index和follow,只有inktomi除外,對于它,缺省值是index、nofollow。

注意事項

上述的robots.txt和Robots Meta標簽限制搜索引擎機器人(ROBOTS)抓取站點內(nèi)容的辦法只是一種規(guī)則,需要搜索引擎機器人的配合才行,并不是每個ROBOTS都遵守的。目前看來,絕大多數(shù)的搜索引擎機器人都遵守robots.txt的規(guī)則,而對于Robots META標簽,支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令“archive”,可以限制GOOGLE是否保留網(wǎng)頁快照。

位置

robots.txt文件應該放置在網(wǎng)站根目錄下。舉例來說,當spider訪問一個網(wǎng)站時,首先會檢查該網(wǎng)站中是否存在robots.txt這個文件,如果 Spider找到這個文件,它就會根據(jù)這個文件的內(nèi)容,來確定它訪問權限的范圍。

wordpress的robots位置

沒有在wordpress網(wǎng)站根節(jié)目上傳過robots.txt,當搜尋引擎和用戶拜訪某個文件時,wordpress程序會主動生成一個robots.txt給搜尋引擎和用戶;若是我們上傳編寫的robots.txt到網(wǎng)站根節(jié)目,用戶和搜尋引擎蛛蛛拜訪的就是我們上傳的文件,wordpress就不會再產(chǎn)生那個文件了。只有服務器找不到robots的時候wordpress才會生成這個文件。

產(chǎn)生

robots.txt并不是某一個公司制定的,而是早在20世紀93、94年就早已出現(xiàn),當時還沒有Google。真實Robots協(xié)議的起源,是在互聯(lián)網(wǎng)從業(yè)人員的公開郵件組里面討論并且誕生的。即便是今天,互聯(lián)網(wǎng)領域的相關問題也仍然是在一些專門的郵件組中討論,并產(chǎn)生(主要是在美國)。

1994年6月30日,在經(jīng)過搜索引擎人員以及被搜索引擎抓取的網(wǎng)站站長共同討論后,正式發(fā)布了一份行業(yè)規(guī)范,即robots.txt協(xié)議。在此之前,相關人員一直在起草這份文檔,并在世界互聯(lián)網(wǎng)技術郵件組發(fā)布后,這一協(xié)議被幾乎所有的搜索引擎采用,包括最早的altavista,infoseek,后來的google,bing,以及中國的百度,搜搜,搜狗等公司也相繼采用并嚴格遵循。

Robot,又稱Spider,是搜索引擎自動獲取網(wǎng)頁信息的電腦程序的通稱。Robots協(xié)議的核心思想就是要求Robot程序不要去檢索那些站長們不希望被直接搜索到的內(nèi)容。將約束Robot程序的具體方法規(guī)范成格式代碼,就成了Robots協(xié)議。一般來說,網(wǎng)站是通過Robots.txt文件來實現(xiàn)Robots協(xié)議。

自有搜索引擎之日起,Robots協(xié)議已是一種目前為止最有效的方式,用自律維持著網(wǎng)站與搜索引擎之間的平衡,讓兩者之間的利益不致過度傾斜。它就像一個鐘擺,讓互聯(lián)網(wǎng)上的搜索與被搜索和諧相處。

維基百科上描述的robots協(xié)議的最原始起源維基百科上描述的robots協(xié)議的最原始起源

影響

Robots協(xié)議是網(wǎng)站出于安全和隱私考慮,防止搜索引擎抓取敏感信息而設置的。搜索引擎的原理是通過一種爬蟲spider程序,自動搜集互聯(lián)網(wǎng)上的網(wǎng)頁并獲取相關信息。而鑒于網(wǎng)絡安全與隱私的考慮,每個網(wǎng)站都會設置自己的Robots協(xié)議,來明示搜索引擎,哪些內(nèi)容是愿意和允許被搜索引擎收錄的,哪些則不允許。搜索引擎則會按照Robots協(xié)議給予的權限進行抓取。

Robots協(xié)議代表了一種契約精神,互聯(lián)網(wǎng)企業(yè)只有遵守這一規(guī)則,才能保證網(wǎng)站及用戶的隱私數(shù)據(jù)不被侵犯。違背Robots協(xié)議將帶來巨大安全隱憂——此前,曾經(jīng)發(fā)生過這樣一個真實的案例:國內(nèi)某公司員工郭某給別人發(fā)了封求職的電子郵件,該Email存儲在某郵件服務公司的服務器上。因為該網(wǎng)站沒有設置robots協(xié)議,導致該Email被搜索引擎抓取并被網(wǎng)民搜索到,為郭某的工作生活帶來極大困擾。

如今,在中國國內(nèi)互聯(lián)網(wǎng)行業(yè),正規(guī)的大型企業(yè)也都將Robots協(xié)議當做一項行業(yè)標準,國內(nèi)使用Robots協(xié)議最典型的案例,就是淘寶網(wǎng)拒絕百度搜索、京東拒絕一淘搜索。不過,絕大多數(shù)中小網(wǎng)站都需要依靠搜索引擎來增加流量,因此通常并不排斥搜索引擎,也很少使用Robots協(xié)議。

北京市漢卓律師事務所首席律師趙虎表示,Robots協(xié)議是維護互聯(lián)網(wǎng)世界隱私安全的重要規(guī)則。如果這種規(guī)則被破壞,對整個行業(yè)就是滅頂之災。

搜索引擎

百度對robots.txt是有反應的,但比較慢,在減少禁止目錄抓取的同時也減少了正常目錄的抓取。

原因應該是入口減少了,正常目錄收錄需要后面再慢慢增加。

Google對robots.txt反應很到位,禁止目錄馬上消失了,部分正常目錄收錄馬上上升了。/comment/目錄收錄也下降了,還是受到了一些老目標減少的影響。

搜狗抓取呈現(xiàn)普遍增加的均勢,部分禁止目錄收錄下降了。

總結一下:Google似乎最懂站長的意思,百度等其它搜索引擎只是被動的受入口數(shù)量影響了。

淘寶封殺

2008年9月8日,淘寶網(wǎng)宣布封殺百度爬蟲,百度忍痛遵守爬蟲協(xié)議。因為一旦破壞協(xié)議,用戶的隱私和利益就無法得到保障,搜索網(wǎng)站就談不到人性關懷。

京東封殺

2011年10月25日,京東商城正式將一淘網(wǎng)的搜索爬蟲屏蔽,以防止一淘網(wǎng)對其的內(nèi)容抓取。

違反事例

BE違規(guī)抓取eBay

在12年前,美國加州北部的聯(lián)邦地方法院就在著名的eBayVS. Bidder's Edge案中(NO.C-99-21200RMW,2000 U.S Dist. LEXI 7282),引用robots協(xié)議對案件進行裁定。 Bidder's Edge(簡稱BE)成立于1997年,是專門提供拍賣信息的聚合網(wǎng)站。12年前,BE利用“蜘蛛”抓取來自eBay等各個大型拍賣網(wǎng)站的商品信息,放在自己的網(wǎng)站上供用戶瀏覽,并獲得可觀的網(wǎng)站流量。

對于eBay來說,來自BE蜘蛛每天超過十萬次的訪問,給自己的服務器帶來了巨大的壓力。而雖然eBay早已設置了robots協(xié)議禁止BE蜘蛛的抓取,但BE卻無視這個要求——原因很簡單,據(jù)估算,BE網(wǎng)站69%的拍賣信息都來自eBay, 如果停止抓取eBay內(nèi)容,這意味著BE將損失至少三分之一的用戶。

數(shù)次溝通交涉未果后,2000年2月,忍無可忍的eBay終于一紙訴狀,將BE告上聯(lián)邦法庭,要求禁止BE的違規(guī)抓取行為。3個月后,受理此案的美國聯(lián)邦法官Ronald M. Whyte在經(jīng)過多方調(diào)查取證后做出裁定,認定BE侵權成立,禁止了BE在未經(jīng)eBay允許的情況下,通過任何自動查詢程序、網(wǎng)絡蜘蛛等設置抓取eBay的拍賣內(nèi)容。

在當時的庭審中,雙方爭議的焦點主要集中在“網(wǎng)站是否有權設置robots協(xié)議屏蔽其他網(wǎng)站蜘蛛的抓取”。被告BE認為,eBay的網(wǎng)站內(nèi)容屬于網(wǎng)民自創(chuàng),因此是公共資源,eBay無權設立robots協(xié)議進行限制。然而,法院對這一說辭卻并不認同。在法官看來:“eBay 的網(wǎng)站內(nèi)容屬于私有財產(chǎn),eBay有權通過robots協(xié)議對其進行限制?!边`規(guī)抓取的行為無異于“對于動產(chǎn)的非法侵入”。

也正是出于這一判斷,即使當年BE還只是搜索了eBay計算機系統(tǒng)里的一小部分數(shù)據(jù),其違反robots協(xié)議的抓取行為,仍然被判為侵犯了eBay將別人排除在其計算機系統(tǒng)以外的基本財產(chǎn)權。

作為美國歷史上第一個保護互聯(lián)網(wǎng)信息內(nèi)容的法律裁定,eBay與BE的這起糾紛,成為網(wǎng)絡侵權案的標志性案例,并在當時引發(fā)了美國互聯(lián)網(wǎng)產(chǎn)業(yè)乃至社會的廣泛討論。SearchEngine Watch的知名專欄作家DannySullivan 曾專門在文章中指出,robots協(xié)議是規(guī)范搜索引擎爬蟲行為的極少數(shù)約定之一,理應遵守,它不僅僅讓整個互聯(lián)網(wǎng)的開放性變成可能,最終也讓整個互聯(lián)網(wǎng)用戶受益。

360搜索無視robots協(xié)議

2012年8月,360綜合搜索被指違反robots協(xié)議:

360甘冒行業(yè)道德風險 撕毀Robots自律協(xié)議360甘冒行業(yè)道德風險 撕毀Robots自律協(xié)議

2012年8月29日,上線不到十日即輕松登上國內(nèi)第二大搜索引擎寶座的奇虎360搜索遭遇滑鐵盧,在百度一項打擊違規(guī)抓取和匿名訪問的措施上線后,360搜索通過山寨加綁架用戶的模式被徹底揭穿,這個故事也正是對所謂“搜索引擎技術無用論”的當頭棒喝。

“360綜合搜索已超出Robots協(xié)議的‘底線’,不僅未經(jīng)授權大量抓取百度、google內(nèi)容,還記錄國內(nèi)知名網(wǎng)游的后臺訂單、優(yōu)惠碼等,甚至一些用戶的電子郵箱、帳號、密碼也被360通過瀏覽器悄然記錄在案”。2012年8月28日業(yè)內(nèi)一位有10年搜索工程師經(jīng)驗的專業(yè)人士表示。[2] 

奇虎360搜索8月16 日上線,已連續(xù)遭到業(yè)界“違規(guī)”的警告。不僅UI設計,搜索結果直接剽竊、篡改百度、google等搜索引擎,還不顧國際通行的Robots協(xié)議,抓取百度、google等搜索引擎的內(nèi)容,很多商業(yè)網(wǎng)站和個人信息的私密內(nèi)容也被抓取泄密。據(jù)悉,這種匿名訪問和違規(guī)抓取其他網(wǎng)站內(nèi)容的行為,不僅嚴重違反了行業(yè)底線,也傷害到了用戶的體驗。在國外,這種行為甚至會受到法律方面的制裁。“這已經(jīng)嚴重觸碰了Robots協(xié)議的底線!這些讓如百度這樣踏踏實實做技術的公司進行反擊行動,是必然的!”

這位搜索工程師告訴記者,所謂Robots協(xié)議,通俗的講就是網(wǎng)站會通過robots.txt協(xié)議來自主控制是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內(nèi)容。而搜索引擎會按照每個網(wǎng)站主給與自己的權限來進行抓取。這就好比,一個正常的人去到別人家里,需要先敲門,得到許可以后才能進入客廳。除非有主人的進一步許可和邀請,否則你不能擅自進入內(nèi)室,或者在別人家里四處溜達。當然,強盜或者小偷例外。[3] 

對于奇虎360綜合搜索被爆出無視國際通行的robots協(xié)議,抓取百度、Google等搜索引擎內(nèi)容,導致眾多網(wǎng)站出于安全和隱私考慮不允許搜索引擎抓取的內(nèi)網(wǎng)信息被泄露一事,資深互聯(lián)網(wǎng)觀察家洪波指出,做搜索就要遵守搜索行業(yè)公認的游戲規(guī)則,無視規(guī)則,肆意違反規(guī)則才是真正的不正當競爭,這種行為不能從法律和政府監(jiān)管上及時制止,將引發(fā)行業(yè)大亂。

百度并沒有禁止所有爬蟲抓取問答、知道和貼吧的內(nèi)容,百度只是禁止了不規(guī)矩的、存在潛在安全風險的爬蟲,這恰是保護市場秩序,保護用戶隱私的合理舉措。2008年淘寶也曾禁止百度爬蟲,而百度則嚴格遵守robots協(xié)議,停止抓取淘寶網(wǎng)內(nèi)容,并沒有以淘寶不正當競爭為借口違反robots協(xié)議。

中國工程院院士高文:Robots協(xié)議是搜索引擎在抓取網(wǎng)站信息時要遵守的一個規(guī)則,是國際互聯(lián)網(wǎng)界通行的道德規(guī)范。網(wǎng)站主人通過Robots協(xié)議明示自動抓取程序,服務器上什么內(nèi)容可以被抓取,什么內(nèi)容不可以被抓取。這是保證互聯(lián)網(wǎng)行業(yè)健康發(fā)展的自律準則,盡管不是強制命令,但業(yè)界都應該遵守。中國互聯(lián)網(wǎng)企業(yè)要想在國際舞臺受到更多關注、得到更大的發(fā)展,沒有理由不遵守這個游戲規(guī)則。如果不遵守,不僅損害了違規(guī)企業(yè)自身的形象,也損害了中國互聯(lián)網(wǎng)行業(yè)的整體聲譽,得不償失。

浙江大學計算機學院院長莊越挺:互聯(lián)網(wǎng)網(wǎng)站頁面,如同廣闊農(nóng)村中的一個菜園,各有其主。一般而言,訪客進去逛逛無可厚非,但是如果主人在邊界立下界碑:未經(jīng)允許不得入內(nèi),這就意味著主人的意愿成為外界是否獲準入園參觀的標準。Robots協(xié)議就是這樣一塊界碑,它雖然不具法律效應,但是人們都普遍遵循。未經(jīng)允許入園就參觀不僅違反了游戲規(guī)則,也有違道德標準。同樣的道理,違反Robots協(xié)議,等同于違背了搜索引擎的行業(yè)規(guī)范,以這種方式獲取資源是一種不道德的競爭。

哈爾濱工業(yè)大學教授劉挺:Robots協(xié)議是互聯(lián)網(wǎng)中網(wǎng)站為搜索引擎所制定的內(nèi)容抓取規(guī)則,體現(xiàn)了業(yè)界同行之間的相互信任。如果不遵循Robots協(xié)議,將會破其業(yè)界信任,使得網(wǎng)站的內(nèi)容不愿意被抓取的內(nèi)容被搜索引擎索引,最終傷害用戶的利益。而清華大學計算機系教授馬少平則指出,如果不遵守Robots協(xié)議,肆意抓取網(wǎng)站的內(nèi)容,網(wǎng)站的信息被任意泄漏,將對互聯(lián)網(wǎng)的良性發(fā)展產(chǎn)生巨大的破壞作用。

百度起訴360

百度訴奇虎360違反“Robots協(xié)議”抓取、復制其網(wǎng)站內(nèi)容侵權一案,2013年10月16日上午在北京市第一中級人民法院開庭審理。百度方面認為,360搜索在未獲得百度公司允許的情況下,違反業(yè)內(nèi)公認的Robots協(xié)議,抓取百度旗下百度知道、百度百科、百度貼吧等網(wǎng)站的內(nèi)容,已經(jīng)構成了不正當競爭,并向奇虎索賠1億元。

百度公關部郭彪向媒體表示,Robots協(xié)議是網(wǎng)站信息和網(wǎng)民隱私保護的國際通行規(guī)范之一,理應得到全球互聯(lián)網(wǎng)公司的共同遵守。不尊重Robots協(xié)議將可能導致網(wǎng)民隱私大規(guī)模泄露。

郭彪表示,更嚴重的是,奇虎360還利用360瀏覽器等客戶端,強行抓取網(wǎng)民的瀏覽數(shù)據(jù)和信息到搜索服務器,完全無視Robots協(xié)議。這一做法目前已經(jīng)導致大量企業(yè)內(nèi)網(wǎng)信息被泄露。2012年年底,百度工程師通過一個名為“鬼節(jié)捉鬼”的測試,證明了360瀏覽器存在私自上傳“孤島頁面”等隱私內(nèi)容到360搜索的行為。

360方面則認為,360搜索索引這些內(nèi)容頁面并不涉嫌侵犯百度的權益,實際上還為百度帶來了大量的用戶和流量,百度應該感謝360。 [2] 


詞條統(tǒng)計

  • 瀏覽次數(shù):1513
  • 編輯次數(shù):0次歷史版本
  • 最近更新:2017-04-23
  • 創(chuàng)建者:聚擎
  • 相關詞條

    相關問答

    相關百科

    相關資訊