爬取豆瓣讀書,只能獲得第一頁的信息。
spider類代碼如下:
# -*- coding: utf-8 -*-
import scrapy
from doubanbook.items import DoubanbookItem
class KgbookSpider(scrapy.Spider):
#這個spider類的唯一標(biāo)識
name = 'KGbook'
#爬取的網(wǎng)頁在這個域名下,非此域名被忽略
allowed_domains = ['book.douban.com/tag/考古']
#spider啟動時下載的網(wǎng)址
start_urls = ['https://book.douban.com/tag/考古']
#解析網(wǎng)頁,獲得item
def parse(self, response):
#用來存儲item
#items = []
#將包含每本書的<li>標(biāo)簽,作為單個元素依次裝入列表booklist中
booklist = response.xpath('//*[@id="subject_list"]/ul/li')
#依次遍歷列表中每個元素,即依次遍歷每個包含一本書信息的<li>標(biāo)簽
for r in booklist:
#創(chuàng)建DoubanbookItem()對象
item = DoubanbookItem()
#書名
item['title'] = r.xpath('./div[2]/h2/a/@title').extract_first().replace(' ', '')
#作者,譯者,出版等信息
item['author'] = r.xpath('string(./div[2]/div[1])').extract_first().replace('\n', '').replace(' ', '')
#評分
item['score'] = r.xpath('string(./div[2]/div[2]/span[2])').extract_first()
item['peoples'] = r.xpath('string(./div[2]/div[2]/span[3])').extract_first().replace('\n', '').replace(' ', '')
item['summary'] = r.xpath('string(./div[2]/p)').extract_first().strip()
yield item
next_page = response.xpath('//*[@id="subject_list"]/div[2]/span[5]/a/@href').extract_first()#.replace('\n', '').replace(' ', '')
#print(str(next_page))
#next_page = ''.join(next_page)
if next_page is not None:
next_page_url = response.urljoin(next_page)
yield scrapy.Request(next_page_url, callback=self.parse, dont_filter=False)
return item
這是下一頁的標(biāo)簽
有知道錯誤在哪里的前輩請指出,感謝!
已解決!步驟如下:
1.注釋掉allowed_domains = ['book.douban.com/tag/考古']
或者改為allowed_domains = ['book.douban.com']
2.去掉dont_filter=False
3.不同頁的翻頁標(biāo)簽的路徑會有變動,需要用絕對路徑直接定位到這個翻頁的標(biāo)簽或者它的父標(biāo)簽。
解決后代碼如下:
next_page = response.xpath('//span[@class="next"]/a[contains(text(), "后頁")]/@href').extract()
if next_page:
next_page = next_page[0]
next_page_url = response.urljoin(next_page)
yield Request(next_page_url, callback=self.parse)
else:
print(str(next_page))import scrapy
from First.items import FirstItem
class SpiderMan(scrapy.Spider):
name = "rose"
start_urls = [
"https://wenku.baidu.com/"
]
def parse(self , response):
for item in response.xpath("http://div/dl/dd/a"):
title = item.xpath("text()").extract()
targetUrl = item.xpath("@href").extract_first()
oneItem = FirstItem()
oneItem["title"] = title
oneItem["targetUrl"] = targetUrl
yield scrapy.Request(url = targetUrl , meta = {"title":title} , callback=self.parse_url)
def parse_url(self , response):
title = response.meta["title"]
print(title)
for sel2 in response.xpath('//a[@class="Author logSend"]'):
docName = sel2.xpath("text()").extract()
oneItem = FirstItem()
oneItem["docName"] = docName
print(oneItem["docName"])
你可以試試我這個方法來請求下一頁,我的代碼是之前寫的有一點(diǎn)BUG ,但是可以看一下思想~
北大青鳥APTECH成立于1999年。依托北京大學(xué)優(yōu)質(zhì)雄厚的教育資源和背景,秉承“教育改變生活”的發(fā)展理念,致力于培養(yǎng)中國IT技能型緊缺人才,是大數(shù)據(jù)專業(yè)的國家
達(dá)內(nèi)教育集團(tuán)成立于2002年,是一家由留學(xué)海歸創(chuàng)辦的高端職業(yè)教育培訓(xùn)機(jī)構(gòu),是中國一站式人才培養(yǎng)平臺、一站式人才輸送平臺。2014年4月3日在美國成功上市,融資1
北大課工場是北京大學(xué)校辦產(chǎn)業(yè)為響應(yīng)國家深化產(chǎn)教融合/校企合作的政策,積極推進(jìn)“中國制造2025”,實現(xiàn)中華民族偉大復(fù)興的升級產(chǎn)業(yè)鏈。利用北京大學(xué)優(yōu)質(zhì)教育資源及背
博為峰,中國職業(yè)人才培訓(xùn)領(lǐng)域的先行者
曾工作于聯(lián)想擔(dān)任系統(tǒng)開發(fā)工程師,曾在博彥科技股份有限公司擔(dān)任項目經(jīng)理從事移動互聯(lián)網(wǎng)管理及研發(fā)工作,曾創(chuàng)辦藍(lán)懿科技有限責(zé)任公司從事總經(jīng)理職務(wù)負(fù)責(zé)iOS教學(xué)及管理工作。
浪潮集團(tuán)項目經(jīng)理。精通Java與.NET 技術(shù), 熟練的跨平臺面向?qū)ο箝_發(fā)經(jīng)驗,技術(shù)功底深厚。 授課風(fēng)格 授課風(fēng)格清新自然、條理清晰、主次分明、重點(diǎn)難點(diǎn)突出、引人入勝。
精通HTML5和CSS3;Javascript及主流js庫,具有快速界面開發(fā)的能力,對瀏覽器兼容性、前端性能優(yōu)化等有深入理解。精通網(wǎng)頁制作和網(wǎng)頁游戲開發(fā)。
具有10 年的Java 企業(yè)應(yīng)用開發(fā)經(jīng)驗。曾經(jīng)歷任德國Software AG 技術(shù)顧問,美國Dachieve 系統(tǒng)架構(gòu)師,美國AngelEngineers Inc. 系統(tǒng)架構(gòu)師。