Web抓取,也稱為Web收集和Web數據提取,基本上是指通過超文本傳輸協議(HTTP)或通過Web瀏覽器從網站收集數據。
內容:
什麼是網頁抓取?
網頁抓取如何工作?
網絡抓取是如何開始的?
網頁抓取效果如何?
Web抓取如何完成?
網頁抓取如何工作?
通常,網頁抓取包括三個步驟:
我知道您的想法-網頁抓取在紙上看起來不錯,但實際上實際上更為複雜。我們需要編碼來獲取所需的數據,這使其成為誰擁有編程大師的特權。作為替代方案,有一些Web抓取工具可在指尖自動執行Web數據提取。
一個網頁抓取工具將加載由用戶提供的網址,並導致整個網站。因此,您可以通過簡單的點擊操作就可以提取任何Web數據,並以一種可行的格式將其歸檔到計算機中,而無需進行編碼。
例如,您可能想從Twitter中提取帖子和評論。您所要做的就是將URL粘貼到刮板上,選擇所需的帖子和評論並執行。因此,它節省了繁瑣的複制和粘貼工作的時間和精力。
網絡抓取是如何開始的?
儘管對於許多人來說,這聽起來像是一個全新的概念,但是網絡抓取的歷史可以追溯到萬維網誕生之時。
在開始的時候,互聯網甚至是不可搜索的。在開發搜索引擎之前,Internet只是文件傳輸協議(FTP)站點的集合,用戶可以在其中導航以查找特定的共享文件。為了查找和組織Internet上可用的分佈式數據,人們創建了一個特定的自動化程序(今天稱為Web爬網程序/機器人)來獲取Internet上的所有頁面,然後將所有內容複製到數據庫中以進行索引。
然後,互聯網發展壯大,最終成為數百萬個網頁的所在地,這些網頁包含多種形式的大量數據,包括文本,圖像,視頻和音頻。它變成一個開放的數據源。
隨著數據源變得異常豐富且易於搜索,人們開始發現可以輕鬆地找到想要的信息,這些信息通常散佈在許多網站上,但是問題出在了他們想要從Internet上獲取數據的時候,而不是每個網站提供了下載選項,而手工複製顯然很繁瑣且效率低下。
這就是Web抓取的目的。Web抓取實際上由網絡bot /爬網程序提供動力,它們的功能與搜索引擎中使用的相同。也就是說,獲取並複制。唯一的區別可能是規模。Web抓取專注於僅從某些網站中提取特定數據,而搜索引擎通常會在Internet上獲取大多數網站。
Web抓取如何完成?
1989年萬維網的誕生
從技術上講,萬維網不同於Internet。前者是指信息空間,而後者是由計算機組成的網絡。
感謝WWW的發明者蒂姆·伯納斯·李(Tim Berners-Lee),他帶來了以下三件事,這些事情早已成為我們日常生活的一部分:
1990第一個網絡瀏覽器
它也是由Tim Berners-Lee發明的,被稱為WorldWideWeb(無空格),以WWW項目命名。網絡出現一年後,人們就有了一種查看和交互的方式。
1991年第一個Web服務器和第一個http://網頁
網絡保持緩慢增長。到1994年,HTTP服務器的數量已超過200。
1993年6月第一個網絡機器人-萬維網流浪者
儘管其功能與當今的網絡機器人相同,但僅用於測量網絡的大小。
1993年12月第一個基於搜尋器的網絡搜索引擎-JumpStation
由於網絡上沒有太多可用的網站,因此當時的搜索引擎曾經依靠其人工網站管理員來收集鏈接並將其編輯為特定格式。 JumpStation帶來了新的飛躍。這是第一個依靠網絡機器人的WWW搜索引擎。
從那時起,人們開始使用這些程序化Web搜尋器來收穫和組織Internet。從Infoseek,Altavista和Excite到今天的Bing和Google,搜索引擎bot的核心保持不變: 找到一個網頁,下載(獲取)它,抓取該網頁上顯示的所有信息,然後添加它到搜索引擎的數據庫。
由於網頁是為人類用戶設計的,而不是為了易於自動使用而設計的,即使使用Web bot的發展,計算機工程師和科學家仍然很難進行網絡抓取,更不用說普通人了。因此,人們一直致力於使網絡抓取更加可用。 2000年,Salesforce和eBay推出了自己的API,使程序員能夠訪問和下載一些可供公眾使用的數據。 從那時起,許多網站都提供Web API供人們訪問其公共數據庫。 通過僅收集網站提供的數據,API為開發人員提供了一種更友好的Web抓取方式。
2004 Python美麗湯
並非所有網站都提供API。即使他們這樣做,也不會提供您想要的所有數據。因此,程序員仍在研究開發一種可以簡化Web抓取的方法。 2004年,《美麗湯》發行。它是為Python設計的庫。
在計算機編程中,庫是腳本模塊的集合,類似於常用算法,該腳本模塊無需重寫即可使用,從而簡化了編程過程。通過簡單的命令,Beautiful Soup可以了解站點結構並幫助解析HTML容器中的內容。它被認為是用於Web抓取的最複雜,最先進的庫,也是當今最常見和最受歡迎的方法之一。
2005-2006視覺網絡抓取軟件
2006年,斯蒂芬·安德森(Stefan Andresen)和他的Kapow軟件(2013年被Kofax收購)推出了Web Integration Platform版本6.0,該版本現在被稱為可視化Web抓取軟件,它允許用戶簡單地突出顯示網頁的內容並將數據結構化為可用的excel文件或數據庫。
最後,有一種方法可以使大量的非程序員自行進行網絡抓取。 從那時起,網絡抓取開始流行。現在,對於非程序員,他們可以輕鬆找到80多種提供可視化過程的現成數據提取軟件。
網頁抓取效果如何?
我們收集數據,處理數據,並將數據轉化為可行的見解。事實證明,像微軟和亞馬遜這樣的商業巨人在收集有關其消費者的數據方面投入了大量資金,以便通過個性化廣告來定位用戶。小企業由於缺乏剩餘資金來收集數據而無法參與市場競爭。
借助Web抓取工具,現在任何人,公司和組織都可以訪問Web數據進行分析。 在guru.com上搜索“網頁抓取”時,您可以獲得10,088個搜索結果,這意味著超過10,000名自由職業者正在網站上提供網頁抓取服務。
跨行業的公司對Web數據的需求不斷增長,繁榮了Web抓取市場,並帶來了新的工作和商機。
同時,與其他新興產業一樣,網絡抓取也帶來了法律上的擔憂。 圍繞網絡抓取合法性的法律環境正在不斷發展。它的法律地位仍然高度針對具體情況。目前,從這一趨勢中出現的許多最有趣的法律問題仍未得到解答。
消除網頁抓取的潛在法律後果的一種方法是諮詢專業的網頁抓取服務提供商。Octoparse是提供刮削服務和Web數據提取工具的最佳Web刮削公司。不論是個體企業家還是大公司,都將受益於其先進的刮削技術。
文章来源:https://www.octoparse.com/blog/web-scraping-introduction