在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/Python/ pyquery爬蟲圖片無法保存

pyquery爬蟲圖片無法保存

使用pyquery爬蟲,使用urllib.request.urlretrieve保存圖片時報錯, HTTP Error 403: Forbidden,按照網(wǎng)上說的添加了headers
clipboard.png但運行仍然報錯,另外hearder內(nèi)容是怎么生成的啊,我是直接復制的

回答
編輯回答
失心人

headers 是dict
例如
headers = {

'Accept':'*/*',
'Accept-Encoding':'gzip, deflate, br',
'Accept-Language':'zh-CN,zh;q=0.8',
'Connection':'keep-alive',
'Content-Length':'6',
'Content-Type':'application/x-www-form-urlencoded; charset=UTF-8',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'

}

例子:


import requests
headers = {
    'Accept':'image/webp,image/*,*/*;q=0.8',
    'Accept-Encoding':'gzip, deflate, sdch',
    'Accept-Language':'zh-CN,zh;q=0.8',
    'Connection':'keep-alive',
    'Cache-Control':'no-cache',
    'Host':'img1.mm131.me',
    'Pragma':'no-cache',
    'Referer':'http://www.mm131.com/xinggan/3627.html',
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36',
    'X-Requested-With':'XMLHttpRequest'
}
r = requests.get('http://img1.mm131.me/pic/3627/1.jpg', headers=headers)

with open('1.jpg', 'wb') as w:    #保存圖片
    w.write(r.content)
2017年5月8日 07:31