在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/Python/ pyspider抓頭條json不會(huì)傳遞數(shù)據(jù)。

pyspider抓頭條json不會(huì)傳遞數(shù)據(jù)。

我用pyspider抓頭條的json文件,每一頁能獲取下一頁的鏈接和當(dāng)前頁的詳情。但是存儲(chǔ)速度很慢,因?yàn)槊垦h(huán)一次就執(zhí)行一次插入mysql,請(qǐng)問怎么提高效率?另外,我想把數(shù)據(jù)return出去到on_result函數(shù),不知道加到哪里?怎么傳遞數(shù)值。謝謝。
按照官方文檔return一個(gè)字典list出去,循環(huán)就停止了,折騰了一天,沒研究出來。

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2017-11-04 17:44:17
# Project: TouTiaocomment

from pyspider.libs.base_handler import *
from fake_useragent import UserAgent
import time
import hashlib
from pyspider.database.mysql.selfmysqldb import SQL 
# from pyspider.result import ResultWorker


class Handler(BaseHandler):
    ua = UserAgent()
    crawl_config = {
        'headers': {'User-Agent': ua.random}
    }
    
    feed_url = 'https://www.toutiao.com/api/pc/feed/'
    sql=SQL()

    def getASCP(self):
        t = round(time.time())
        e = hex(t).upper()[2:]
        m = hashlib.md5()
        m.update(str(t).encode(encoding='utf-8'))
        i = m.hexdigest().upper()

        if len(e) != 8:
            AS = '479BB4B7254C150'
            CP = '7E0AC8874BB0985'
            return AS, CP

        n = i[0:5]
        a = i[-5:]
        s = ''
        r = ''
        for o in range(5):
            s += n[o] + e[o]
            r += e[o + 3] + a[o]

        AS = 'A1' + s + e[-3:]
        CP = e[0:3] + r + 'E1'
        return AS, CP
    

    @every(minutes=24 * 60)
    def on_start(self, maxtime=0):
        AS, CP = self.getASCP()
        
        payloads = {'max_behot_time': maxtime, 'category': '__all__','utm_source': 'toutiao', 'widen': 1, 'tadrequire': 'false', 'as': AS, 'cp': CP}
        self.crawl(self.feed_url, params=payloads,
                   callback=self.index_page)

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
          rj=response.json
          for i in rj.get('data', None):
            if i.get('is_feed_ad') == False:
                result= {'title': i.get('title'), 'tags': i.get('chinese_tag'), 'comments': i.get('comments_count'),'url': 'https://www.toutiao.com'+i.get('source_url')}
                print(result)
                self.sql.insert('toutiaocomment', **result)
          
          if rj.get('next'):
            maxtime = rj.get('next').get('max_behot_time')
            AS, CP = self.getASCP()
            payloads = {'max_behot_time': maxtime, 'category': '__all__','utm_source': 'toutiao', 'widen': 1, 'tadrequire': 'false', 'as': AS, 'cp': CP}
            self.crawl(self.feed_url, params=payloads,callback=self.index_page)
回答
編輯回答
氕氘氚

1.優(yōu)化存儲(chǔ),你不需要每次循環(huán)都執(zhí)行sql.insert,你在每次循環(huán)中先將數(shù)據(jù)收集起來。我不太清楚你的SQL是什么對(duì)象,但是python mysql客戶端應(yīng)該是支持一次插入多個(gè)數(shù)據(jù)的,直接一次插入你收集的數(shù)據(jù)應(yīng)該可以加快效率

  1. 你可以一次性將收集到的數(shù)據(jù)return 就會(huì)傳遞到on_result函數(shù),也就是return你說的字典list
2017年12月14日 03:37
編輯回答
殘淚

你可以 yield, 這樣每次 yield 都會(huì)調(diào)用一次 on_result。
不過注意你需要重載 on_result,默認(rèn)行為會(huì)覆蓋保存。

2018年3月25日 05:40