上海零基礎了解Python爬蟲
發(fā)布時間:2019-05-03首先爬蟲是什么?
網絡爬蟲(又被稱為網頁蜘蛛,網絡機器人,在FOAF社區(qū)中間,更經常的稱為網頁追逐者),是一種按照一定的規(guī)則,自動的抓取萬維網信息的程序或者腳本。
根據我的經驗,要學習Python爬蟲,我們要學習的共有以下幾點:
[li]
Python基礎知識[/li][li]
Python中urllib和urllib2庫的用法[/li][li]
Python正則表達式[/li][li]
Python爬蟲框架Scrapy[/li][li]
Python爬蟲更高級的功能[/li]
1. Python基礎學習
首先,我們要用Python寫爬蟲,肯定要了解Python的基礎吧,萬丈高樓平地起,不能忘啦那地基。
2. Python urllib和urllib2 庫的用法
urllib和urllib2庫是學習Python爬蟲最基本的庫,利用這個庫我們可以得到網頁的內容,并對內容用正則表達式提取分析,得到我們想要的結果。
3. Python 正則表達式
Python正則表達式是一種用來匹配字符串的強有力的武器。它的設計思想是用一種描述性的語言來給字符串定義一個規(guī)則,凡是符合規(guī)則的字符串,我們就認為它“匹配”了,否則,該字符串就是不合法的。
4. 爬蟲框架Scrapy
如果你是一個Python高手,基本的爬蟲知識都已經掌握了,那么就尋覓一下Python框架吧,我選擇的框架是Scrapy框架。這個框架有什么強大的功能呢?下面是它的官方介紹:
HTML, XML源數(shù)據 選擇及提取 的內置支持
提供了一系列在spider之間共享的可復用的過濾器(即 Item Loaders),對智能處理爬取數(shù)據提供了內置支持
通過 feed導出 提供了多格式(JSON、CSV、XML),多存儲后端(FTP、S3、本地文件系統(tǒng))的內置支持
提供了media pipeline,可以 自動下載 爬取到的數(shù)據中的圖片(或者其他資源)。
高擴展性。您可以通過使用 signals ,設計好的API(中間件, extensions, pipelines)來定制實現(xiàn)您的功能。
內置的中間件及擴展為下列功能提供了支持:
[blockquote]cookies and session 處理
HTTP 壓縮
HTTP 認證
HTTP 緩存
user-agent模擬
robots.txt
爬取深度限制
針對非英語語系中不標準或者錯誤的編碼聲明, 提供了自動檢測以及健壯的編碼支持。[/blockquote]
[li]
支持根據模板生成爬蟲。在加速爬蟲創(chuàng)建的同時,保持在大型項目中的代碼更為一致。詳細內容請參閱 genspider 命令。[/li][li]
針對多爬蟲下性能評估、失敗檢測,提供了可擴展的 狀態(tài)收集工具 。[/li][li]
提供 交互式shell終端 , 為您測試XPath表達式,編寫和調試爬蟲提供了極大的方便[/li][li]
提供 System service, 簡化在生產環(huán)境的部署及運行[/li][li]
內置 Web service, 使您可以監(jiān)視及控制您的機器[/li][li]
內置 Telnet終端 ,通過在Scrapy進程中鉤入Python終端,使您可以查看并且調試爬蟲[/li][li]
Logging 為您在爬取過程中捕捉錯誤提供了方便[/li][li]
支持 Sitemaps 爬取[/li][li]
具有緩存的DNS解析器[/li]
Python爬蟲入門(2):爬蟲基礎了解
1. 什么是爬蟲
爬蟲,即網絡爬蟲,大家可以理解為在網絡上爬行的一直蜘蛛,互聯(lián)網就比作一張大網,而爬蟲便是在這張網上爬來爬去的蜘蛛咯,如果它遇到資源,那么它就會抓取下來。想抓取什么?這個由你來控制它咯。
比如它在抓取一個網頁,在這個網中他發(fā)現(xiàn)了一條道路,其實就是指向網頁的超鏈接,那么它就可以爬到另一張網上來獲取數(shù)據。這樣,整個連在一起的大網對這之蜘蛛來說觸手可及,分分鐘爬下來不是事兒。
2. 瀏覽網頁的過程
在用戶瀏覽網頁的過程中,我們可能會看到許多好看的圖片,比如 http://image.baidu.com/ ,我們會看到幾張的圖片以及百度搜索框,這個過程其實就是用戶輸入網址之后,經過DNS服務器,找到服務器主機,向服務器發(fā)出一個請求,服務器經過解析之后,發(fā)送給用戶的瀏覽器 HTML、JS、CSS 等文件,瀏覽器解析出來,用戶便可以看到形形色色的圖片了。
因此,用戶看到的網頁實質是由 HTML 代碼構成的,爬蟲爬來的便是這些內容,通過分析和過濾這些 HTML 代碼,實現(xiàn)對圖片、文字等資源的獲取。
3. URL的含義
URL,即統(tǒng)一資源定位符,也就是我們說的網址,統(tǒng)一資源定位符是對可以從互聯(lián)網上得到的資源的位置和訪問方法的一種簡潔的表示,是互聯(lián)網上標準資源的地址?;ヂ?lián)網上的每個文件都有一個唯一的URL,它包含的信息指出文件的位置以及瀏覽器應該怎么處理它。
URL的格式由三部分組成:
①第一部分是協(xié)議(或稱為服務方式)。
②第二部分是存有該資源的主機IP地址(有時也包括端口號)。
③第三部分是主機資源的具體地址,如目錄和文件名等。
爬蟲爬取數(shù)據時必須要有一個目標的URL才可以獲取數(shù)據,因此,它是爬蟲獲取數(shù)據的基本依據,準確理解它的含義對爬蟲學習有很大幫助。
4. 環(huán)境的配置
學習Python,當然少不了環(huán)境的配置,最初我用的是Notepad++,不過發(fā)現(xiàn)它的提示功能實在是太弱了,于是,在Windows下我用了 PyCharm,在Linux下我用了Eclipse for Python,另外還有幾款比較優(yōu)秀的IDE,大家可以參考這篇文章 學習Python推薦的IDE 。好的開發(fā)工具是前進的推進器,希望大家可以找到適合自己的ID