在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/人工智能  Python/ scrapy 明明在settings中設(shè)置 'INFO',但用CrawlerPr

scrapy 明明在settings中設(shè)置 'INFO',但用CrawlerProcess運(yùn)行的時(shí)候,為什么是DEBUG?

我在scrapy的settings中設(shè)置了LOG_LEVEL = 'INFO',但我用CrawlerProcess將多個(gè)項(xiàng)目在一個(gè)進(jìn)程中運(yùn)行的時(shí)候,日志顯示為DEBUG,這是為什么?'INFO'比較省些資源吧?
用的是官網(wǎng)的第一個(gè)案例,
clipboard.png
類似這樣,再運(yùn)行該文件。

回答
編輯回答
有點(diǎn)壞

把DEBUG的包 比如urllib3,根據(jù)這個(gè)改
logging.getLogger("urllib3").setLevel(logging.WARNING)

2017年9月26日 13:59
編輯回答
舊城人

請(qǐng)加載設(shè)置


from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

process = CrawlerProcess(get_project_settings()) #加載項(xiàng)目設(shè)置

# 'followall' 是爬蟲項(xiàng)目中的爬蟲示例
process.crawl('followall', domain='scrapinghub.com')
process.start() # the script will block here until the crawling is finished

https://doc.scrapy.org/en/lat...


這個(gè)代碼示例是展示直接運(yùn)行爬蟲,運(yùn)行爬蟲項(xiàng)目需加載項(xiàng)目設(shè)置

2017年9月23日 20:08