使用scrapy框架爬蟲,但是遇到各種問題以至于一次都沒有成功,想知道自己錯在哪里了?
items.py
# -*- coding: utf-8 -*-
# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.html
import scrapy
class BnuzpjtItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
#公告通知標(biāo)題
title = scrapy.Field()
#公告通知鏈接
url = scrapy.Field()
pipelines.py
# -*- coding: utf-8 -*-
import codecs
import json
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
class BnuzpjtPipeline(object):
def __init__(self):
self.file = codecs.open(r"C:/Users/j/bnuzpjt","wb",encoding = "utf-8")
def process_item(self, item, spider):
i = json.dumps(dict(item),ensure_ascii=False)
line = i+'\n'
#數(shù)據(jù)寫入到j(luò)sou文件中
self.file.write(line)
return item
def close_spider(self,spider):
#關(guān)閉mydata文件
self.file.close()
settings
# -*- coding: utf-8 -*-
# Scrapy settings for bnuzpjt project
#
# For simplicity, this file contains only settings considered important or
# commonly used. You can find more settings consulting the documentation:
#
# http://doc.scrapy.org/en/latest/topics/settings.html
# http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html
# http://scrapy.readthedocs.org/en/latest/topics/spider-middleware.html
BOT_NAME = 'bnuzpjt'
SPIDER_MODULES = ['bnuzpjt.spiders']
NEWSPIDER_MODULE = 'bnuzpjt.spiders'
# Disable cookies (enabled by default)
COOKIES_ENABLED = False
# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
'bnuzpjt.pipelines.BnuzpjtPipeline': 300,
}
爬蟲代碼:bnuzspd.py
# -*- coding: utf-8 -*-
import scrapy
from bnuzpjt.items import BnuzpjtItem
from scrapy.http import Request
class BnuzspdSpider(scrapy.Spider):
name = 'bnuzspd'
allowed_domains = ['bnuz.edu.cn']
start_urls = ['http://bnuz.edu.cn/']
def parse(self, response):
item=BnuzpjdItem()
item["title"] = response.xpath("http://span[@class='lefttitle']/text()").extract()
item["url"] = response.xpath("http://ul[@class='leftclick']/li/a/@href").extract()
yield item
運行之后會出現(xiàn)一個錯誤,如圖:
請問到底是出了什么問題?
北大青鳥APTECH成立于1999年。依托北京大學(xué)優(yōu)質(zhì)雄厚的教育資源和背景,秉承“教育改變生活”的發(fā)展理念,致力于培養(yǎng)中國IT技能型緊缺人才,是大數(shù)據(jù)專業(yè)的國家
達內(nèi)教育集團成立于2002年,是一家由留學(xué)海歸創(chuàng)辦的高端職業(yè)教育培訓(xùn)機構(gòu),是中國一站式人才培養(yǎng)平臺、一站式人才輸送平臺。2014年4月3日在美國成功上市,融資1
北大課工場是北京大學(xué)校辦產(chǎn)業(yè)為響應(yīng)國家深化產(chǎn)教融合/校企合作的政策,積極推進“中國制造2025”,實現(xiàn)中華民族偉大復(fù)興的升級產(chǎn)業(yè)鏈。利用北京大學(xué)優(yōu)質(zhì)教育資源及背
博為峰,中國職業(yè)人才培訓(xùn)領(lǐng)域的先行者
曾工作于聯(lián)想擔(dān)任系統(tǒng)開發(fā)工程師,曾在博彥科技股份有限公司擔(dān)任項目經(jīng)理從事移動互聯(lián)網(wǎng)管理及研發(fā)工作,曾創(chuàng)辦藍懿科技有限責(zé)任公司從事總經(jīng)理職務(wù)負(fù)責(zé)iOS教學(xué)及管理工作。
浪潮集團項目經(jīng)理。精通Java與.NET 技術(shù), 熟練的跨平臺面向?qū)ο箝_發(fā)經(jīng)驗,技術(shù)功底深厚。 授課風(fēng)格 授課風(fēng)格清新自然、條理清晰、主次分明、重點難點突出、引人入勝。
精通HTML5和CSS3;Javascript及主流js庫,具有快速界面開發(fā)的能力,對瀏覽器兼容性、前端性能優(yōu)化等有深入理解。精通網(wǎng)頁制作和網(wǎng)頁游戲開發(fā)。
具有10 年的Java 企業(yè)應(yīng)用開發(fā)經(jīng)驗。曾經(jīng)歷任德國Software AG 技術(shù)顧問,美國Dachieve 系統(tǒng)架構(gòu)師,美國AngelEngineers Inc. 系統(tǒng)架構(gòu)師。