在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/HTML/ 關(guān)于node爬蟲的問題

關(guān)于node爬蟲的問題

關(guān)于爬蟲的若干問題

最近想利用爬蟲去獲取較為大量的數(shù)據(jù),但是在爬的過程中遇到了若干問題,所以來和各位大神討教一下,如能解答,感激不盡。

1. 對(duì)于網(wǎng)頁鏈接數(shù)量較多的時(shí)候,用什么方式去爬能提升效率?

我現(xiàn)在是將所有的子頁鏈接存到一個(gè)數(shù)組里面,在對(duì)數(shù)組鏈接map操作,然后去獲取每一頁的數(shù)據(jù)。但是我現(xiàn)在所爬到的子頁鏈接有上萬個(gè),爬取這些鏈接需要很長的時(shí)間,獲取鏈接之后的請(qǐng)求頁面獲取數(shù)據(jù)也要很久的時(shí)間。所以我想知道,有沒有更好的方式能夠提高爬蟲的效率的。

2. 獲取數(shù)據(jù)和存儲(chǔ)數(shù)據(jù)應(yīng)該怎么處理

我在請(qǐng)求子頁面獲取數(shù)據(jù)之后,會(huì)將數(shù)據(jù)存儲(chǔ)到mongodb里面,但是事實(shí)證明,這種寫法讓我的爬蟲存儲(chǔ)效率低下,而且經(jīng)常出現(xiàn)堆棧溢出的情況。所以我想了解一下大神們獲取到數(shù)據(jù)之后是怎么存儲(chǔ)數(shù)據(jù)的,我聽過讀寫分離,但是不知道這具體是怎樣的一個(gè)概念,有大神講解下么~

3. 對(duì)于爬到錯(cuò)誤數(shù)據(jù)的處理

有些時(shí)候,所爬到頁面的數(shù)據(jù),是不符合存儲(chǔ)標(biāo)準(zhǔn)的,但是我不知道這部分的數(shù)據(jù)是應(yīng)該放過,還是重新請(qǐng)求頁面重新獲取一次。我現(xiàn)在是如果請(qǐng)求到的數(shù)據(jù)不合格,就會(huì)換個(gè)ip重新請(qǐng)求頁面,知道數(shù)據(jù)符合為止。但是這樣很有可能造成死循環(huán),所以想知道大神們對(duì)這種狀況的處理方式。

4. 用mongo存儲(chǔ)數(shù)據(jù)的問題

從昨晚到今天,總共有將近7w個(gè)子鏈接,但是我的mongodb里只多了5k條數(shù)據(jù)。所以我想了解一下,關(guān)于mongodb,有沒有什么可參考數(shù)據(jù)之類的,可以讓我了解一下它的真實(shí)性能。順便如果有大神肯分享一些mongo使用技巧和心得的話,那就更感謝了。。。
小菜鳥新入門,如果有犯低級(jí)錯(cuò)誤的地方,歡迎各位大神指正。

回答
編輯回答
尕筱澄
  1. 對(duì)于網(wǎng)頁鏈接數(shù)量較多的時(shí)候,用什么方式去爬能提升效率?

沒有辦法,網(wǎng)絡(luò)和帶寬限制

  1. 獲取數(shù)據(jù)和存儲(chǔ)數(shù)據(jù)應(yīng)該怎么處理

正常使用非內(nèi)存型數(shù)據(jù)庫存放即可,如上面答主所說,瓶頸不會(huì)在數(shù)據(jù)庫。因?yàn)榫W(wǎng)絡(luò)和帶寬限制,寫入量極其小。猜測你所說的堆棧溢出問題是因?yàn)楸闅v全表使用callback導(dǎo)致。對(duì)mongodb不熟,建議使用mysql

  1. 對(duì)于爬到錯(cuò)誤數(shù)據(jù)的處理

如你所說,你應(yīng)該分析并創(chuàng)建相應(yīng)的處理規(guī)則。符合規(guī)則的進(jìn)行重試,比如有些網(wǎng)頁頻繁請(qǐng)求會(huì)限制ip等等,這些需要你重新請(qǐng)求,但是要設(shè)定次數(shù),比如重試兩次。。除此之外所有異常,比如404等等,不去理會(huì),繼續(xù)下一個(gè)任務(wù)

  1. 用mongodb存儲(chǔ)數(shù)據(jù)的問題

還是上面的結(jié)果,一個(gè)爬蟲遠(yuǎn)遠(yuǎn)達(dá)不到數(shù)據(jù)庫的性能上限。你只需要關(guān)注你寫的程序,有沒有遍歷全表的操作即可。

曾經(jīng)用mysql存了130G的MD5數(shù)據(jù),大概10億條,查詢響應(yīng)還是和普通的查詢差不多。由此可見,只要是正確的查詢姿勢,沒有復(fù)雜的聯(lián)合查詢,一般不會(huì)觸及到性能上限

2018年3月29日 00:43
編輯回答
六扇門

爬蟲的瓶頸不應(yīng)該是數(shù)據(jù)存儲(chǔ)。比如你1分鐘爬取了50個(gè)頁面,那么也就是1分鐘往數(shù)據(jù)庫插入50條數(shù)據(jù)。假如1分鐘抓取1萬個(gè)頁面,那么往數(shù)據(jù)庫添加1萬條數(shù)據(jù),這時(shí)候估計(jì)你數(shù)據(jù)庫就是瓶頸了。但這不可能,除非分布式抓取。目前我們有10幾臺(tái)服務(wù)器分布式抓取,一天抓取數(shù)百萬個(gè)網(wǎng)頁,數(shù)據(jù)庫都沒到瓶頸。
真到了這個(gè)瓶頸,建議引入redis緩解數(shù)據(jù)庫壓力。

2017年7月5日 00:57