在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 教程/ Python/ 利用 urllib2 通過(guò)指定的 URL 抓取網(wǎng)頁(yè)內(nèi)容
一個(gè)簡(jiǎn)單的百度貼吧的小爬蟲(chóng)
亮劍!爬蟲(chóng)框架小抓抓 Scrapy 閃亮登場(chǎng)!
Opener 與 Handler 的介紹和實(shí)例應(yīng)用
百度貼吧的網(wǎng)絡(luò)爬蟲(chóng)(v0.4)源碼及解析
異常的處理和 HTTP 狀態(tài)碼的分類(lèi)
利用 urllib2 通過(guò)指定的 URL 抓取網(wǎng)頁(yè)內(nèi)容
Python 中的正則表達(dá)式教程
爬蟲(chóng)框架 Scrapy 的第一個(gè)爬蟲(chóng)示例入門(mén)教程
抓取網(wǎng)頁(yè)的含義和 URL 基本構(gòu)成
urllib2 的使用細(xì)節(jié)與抓站技巧
一個(gè)爬蟲(chóng)的誕生全過(guò)程(以山東大學(xué)績(jī)點(diǎn)運(yùn)算為例)
糗事百科的網(wǎng)絡(luò)爬蟲(chóng)(v0.3)源碼及解析(簡(jiǎn)化更新)

利用 urllib2 通過(guò)指定的 URL 抓取網(wǎng)頁(yè)內(nèi)容

版本號(hào):Python2.7.5,Python3 改動(dòng)較大,各位另尋教程。所謂網(wǎng)頁(yè)抓取,就是把 URL 地址中指定的網(wǎng)絡(luò)資源從網(wǎng)絡(luò)流中讀取出來(lái),保存到本地。類(lèi)似于使用程序模擬 IE 瀏覽器的功能,把 URL 作為 HTTP 請(qǐng)求的內(nèi)容發(fā)送到服務(wù)器端, 然后讀取服務(wù)器端的響應(yīng)資源。

在 Python 中,我們使用 urllib2 這個(gè)組件來(lái)抓取網(wǎng)頁(yè)。urllib2 是 Python 的一個(gè)獲取 URLs(Uniform Resource Locators)的組件。它以 urlopen 函數(shù)的形式提供了一個(gè)非常簡(jiǎn)單的接口。最簡(jiǎn)單的 urllib2 的應(yīng)用代碼只需要四行。我們新建一個(gè)文件 urllib2_test01.py 來(lái)感受一下 urllib2 的作用:

import urllib2  
response = urllib2.urlopen('http://www.baidu.com/')  
html = response.read()  
print html  

按下 F5 可以看到運(yùn)行的結(jié)果:

http://wiki.jikexueyuan.com/project/python-crawler/images/1.png" alt="" />

我們可以打開(kāi)百度主頁(yè),右擊,選擇查看源代碼(火狐 OR 谷歌瀏覽器均可),會(huì)發(fā)現(xiàn)也是完全一樣的內(nèi)容。也就是說(shuō),上面這四行代碼將我們?cè)L問(wèn)百度時(shí)瀏覽器收到的代碼們?nèi)看蛴×顺鰜?lái)。這就是一個(gè)最簡(jiǎn)單的 urllib2 的例子。

除了"http:",URL同樣可以使用"ftp:","file:"等等來(lái)替代。HTTP 是基于請(qǐng)求和應(yīng)答機(jī)制的:客戶(hù)端提出請(qǐng)求,服務(wù)端提供應(yīng)答。

urllib2 用一個(gè) Request 對(duì)象來(lái)映射你提出的 HTTP 請(qǐng)求。在它最簡(jiǎn)單的使用形式中你將用你要請(qǐng)求的地址創(chuàng)建一個(gè) Reques t 對(duì)象,通過(guò)調(diào)用 urlopen 并傳入 Request 對(duì)象,將返回一個(gè)相關(guān)請(qǐng)求 response 對(duì)象,這個(gè)應(yīng)答對(duì)象如同一個(gè)文件對(duì)象,所以你可以在 Response 中調(diào)用 .read()。

我們新建一個(gè)文件 urllib2_test02.py 來(lái)感受一下:

import urllib2    
req = urllib2.Request('http://www.baidu.com')    
response = urllib2.urlopen(req)    
the_page = response.read()    
print the_page  

可以看到輸出的內(nèi)容和 test01 是一樣的。 urllib2 使用相同的接口處理所有的 URL 頭。例如你可以像下面那樣創(chuàng)建一個(gè) ftp 請(qǐng)求。

req = urllib2.Request('ftp://example.com/')  

在 HTTP 請(qǐng)求時(shí),允許你做額外的兩件事。

發(fā)送 data 表單數(shù)據(jù)

這個(gè)內(nèi)容相信做過(guò) Web 端的都不會(huì)陌生,有時(shí)候你希望發(fā)送一些數(shù)據(jù)到 URL(通常 URL 與 CGI[通用網(wǎng)關(guān)接口]腳本,或其他 WEB 應(yīng)用程序掛接)。 在 HTTP 中,這個(gè)經(jīng)常使用熟知的 POST 請(qǐng)求發(fā)送。這個(gè)通常在你提交一個(gè) HTML 表單時(shí)由你的瀏覽器來(lái)做。并不是所有的 POSTs 都來(lái)源于表單,你能夠使用 POST 提交任意的數(shù)據(jù)到你自己的程序。一般的 HTML 表單,data 需要編碼成標(biāo)準(zhǔn)形式。然后做為 data 參數(shù)傳到 Request 對(duì)象。編碼工作使用 urllib 的函數(shù)而非 urllib2。我們新建一個(gè)文件 urllib2_test03.py 來(lái)感受一下:

import urllib    
import urllib2    

url = 'http://www.someserver.com/register.cgi'    

values = {'name' : 'WHY',    
          'location' : 'SDU',    
          'language' : 'Python' }    

data = urllib.urlencode(values) # 編碼工作  
req = urllib2.Request(url, data)  # 發(fā)送請(qǐng)求同時(shí)傳data表單  
response = urllib2.urlopen(req)  #接受反饋的信息  
the_page = response.read()  #讀取反饋的內(nèi)容  

如果沒(méi)有傳送 data 參數(shù),urllib2 使用 GET 方式的請(qǐng)求。GET 和 POST 請(qǐng)求的不同之處是 POST 請(qǐng)求通常有"副作用",它們會(huì)由于某種途徑改變系統(tǒng)狀態(tài)(例如提交成堆垃圾到你的門(mén)口)。Data 同樣可以通過(guò)在 Get 請(qǐng)求的 URL 本身上面編碼來(lái)傳送。

import urllib2    
import urllib  

data = {}  

data['name'] = 'WHY'    
data['location'] = 'SDU'    
data['language'] = 'Python'  

url_values = urllib.urlencode(data)    
print url_values  

name=Somebody+Here&language=Python&location=Northampton    
url = 'http://www.example.com/example.cgi'    
full_url = url + '?' + url_values  

data = urllib2.open(full_url)    

這樣就實(shí)現(xiàn)了 Data 數(shù)據(jù)的 Get 傳送。

設(shè)置 Headers 到 http 請(qǐng)求

有一些站點(diǎn)不喜歡被程序(非人為訪(fǎng)問(wèn))訪(fǎng)問(wèn),或者發(fā)送不同版本的內(nèi)容到不同的瀏覽器。 默認(rèn)的 urllib2 把自己作為“Python-urllib/x.y”(x 和 y 是 Python 主版本和次版本號(hào),例如 Python-urllib/2.7)。

這個(gè)身份可能會(huì)讓站點(diǎn)迷惑,或者干脆不工作。瀏覽器確認(rèn)自己身份是通過(guò) User-Agent 頭,當(dāng)你創(chuàng)建了一個(gè)請(qǐng)求對(duì)象,你可以給他一個(gè)包含頭數(shù)據(jù)的字典。下面的例子發(fā)送跟上面一樣的內(nèi)容,但把自身模擬成 Internet Explorer。 (多謝大家的提醒,現(xiàn)在這個(gè) Demo 已經(jīng)不可用了,不過(guò)原理還是那樣的)。

import urllib    
import urllib2    

url = 'http://www.someserver.com/cgi-bin/register.cgi'  

user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'    
values = {'name' : 'WHY',    
          'location' : 'SDU',    
          'language' : 'Python' }    

headers = { 'User-Agent' : user_agent }    
data = urllib.urlencode(values)    
req = urllib2.Request(url, data, headers)    
response = urllib2.urlopen(req)    
the_page = response.read()