在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問(wèn)答/人工智能  Python/ python-scrapy第一個(gè)爬蟲(chóng)程序

python-scrapy第一個(gè)爬蟲(chóng)程序

scrapy教程:http://scrapy-chs.readthedocs...
環(huán)境:python3.6 + windows7
項(xiàng)目結(jié)構(gòu)目錄:

clipboard.png

在根目錄(mySpider)執(zhí)行:scrapy crawl domz
結(jié)果:

clipboard.png

沒(méi)有教程說(shuō)的[dmoz] 輸出,有沒(méi)有新建文件,初學(xué)python,初學(xué)scrapy,是不是哪里我沒(méi)理解的到位,求指教

回答
編輯回答
耍太極

你的請(qǐng)求的響應(yīng)狀態(tài)碼為403錯(cuò)誤,因此并不會(huì)執(zhí)行默認(rèn)的callback函數(shù)parse,而會(huì)執(zhí)行請(qǐng)求的errback回調(diào)函數(shù)

2017年11月27日 20:41
編輯回答
夕顏

我發(fā)現(xiàn),貌似start_requests方法你沒(méi)有,我昨天寫(xiě)作了,寫(xiě)成start_request,結(jié)果沒(méi)有任何請(qǐng)求

2017年10月27日 20:21
編輯回答
萌面人

這是我的博客,里面講解了一些配置問(wèn)題:
Python Scrapy學(xué)習(xí)之pipelines不能保存數(shù)據(jù)到文件問(wèn)題
不知道你的教程哪里看的,這里是我的一些學(xué)習(xí)的代碼,你可以看看:
https://github.com/kangbb/python_webspider

2017年3月16日 01:06