在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/人工智能/ scrapy-redis的dupefilter的數(shù)據(jù)如何重置或者清空呢

scrapy-redis的dupefilter的數(shù)據(jù)如何重置或者清空呢

使用scrapy-redis蜘蛛爬過以后,再爬就無法爬了。如果給蜘蛛改個名字,就可以重新爬取,如果改回原來的名字就又開始了去重機制,雖然需要dupefilter,但是如果調(diào)試中生成一些數(shù)據(jù),想重新爬取的話,如何解決這個問題呢。

如何刪除dupefilter之前記錄的爬過的url數(shù)據(jù)呢。

回答
編輯回答
獨特范

SCHEDULER_FLUSH_ON_START = True
在設置里面可以添加這一句就可以,自動清理redis里面的key

2017年10月13日 01:08
編輯回答
病癮

已解決
挺難得等了好幾天沒人回復

2018年5月22日 16:22
編輯回答
毀與悔

我也遇到了同樣的問題,還是你上面說的話給了我思路。我改了一下蜘蛛名字就可以用了。然后就發(fā)現(xiàn)redis中保存了爬蟲名字的key,刪除這個key就行了。圖片描述

2017年12月6日 03:39