在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問(wèn)答/人工智能  Python/ scrapy自定義保存數(shù)據(jù)為json格式文件過(guò)程的疑惑

scrapy自定義保存數(shù)據(jù)為json格式文件過(guò)程的疑惑

如下代碼,自定義保存為json文件,運(yùn)行scrapy時(shí),中途暫停程序的運(yùn)行查看寫入的數(shù)據(jù),(數(shù)據(jù)量小時(shí))發(fā)現(xiàn)json文件內(nèi)容為空,或者是(數(shù)據(jù)量大時(shí))不及時(shí)(不同步)寫入數(shù)據(jù)。
但是,整個(gè)程序運(yùn)行完成后,json文件卻寫入了數(shù)據(jù),在此期間我也暫停查看了幾次,json文件不能及時(shí)寫入數(shù)據(jù)
于是我測(cè)試了數(shù)據(jù)寫入過(guò)程,如下代碼:

class JsonEncodingPipeline(object):
    def __init__(self):
        print('start writing in files...')
        self.file = codecs.open('jianshu.json', 'a+', encoding='utf-8')

    def process_item(self, item, spider):
        print('writing...')
        line = json.dumps(dict(item), ensure_ascii=False) + "\n"
        self.file.write(line)
        return item

    def spider_closed(self, spider):
        print('ok,file is closed...')
        self.file.close()

運(yùn)行時(shí)顯示如下,數(shù)據(jù)確實(shí)是寫入了,但json文件打開還是無(wú)內(nèi)容。
圖片描述

想請(qǐng)教各位大神,為什么會(huì)出現(xiàn)這樣的情況?還是說(shuō)scrapy在寫入數(shù)據(jù)時(shí),現(xiàn)將數(shù)據(jù)存儲(chǔ)在哪里,直到達(dá)到一定程度時(shí)才執(zhí)行寫入操作嗎?還有就是能實(shí)現(xiàn)批量寫入嗎?

回答
編輯回答
氕氘氚
self.file.write(line)
self.file.flush() # 立即寫入

根json沒(méi)關(guān)系,是codecs的緩存,不立即寫入只有等關(guān)閉或者緩存滿才寫入

2017年6月7日 07:34