日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷(xiāo)解決方案
Pyspider框架——Python爬蟲(chóng)實(shí)戰(zhàn)之爬取V2EX網(wǎng)站帖子

背景:

我們提供的服務(wù)有:成都做網(wǎng)站、網(wǎng)站建設(shè)、微信公眾號(hào)開(kāi)發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、榮昌ssl等。為上千多家企事業(yè)單位解決了網(wǎng)站和推廣的問(wèn)題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的榮昌網(wǎng)站制作公司

PySpider:一個(gè)國(guó)人編寫(xiě)的強(qiáng)大的網(wǎng)絡(luò)爬蟲(chóng)系統(tǒng)并帶有強(qiáng)大的WebUI。采用Python語(yǔ)言編寫(xiě),分布式架構(gòu),支持多種數(shù)據(jù)庫(kù)后端,強(qiáng)大的WebUI支持腳本編輯器,任務(wù)監(jiān)視器,項(xiàng)目管理器以及結(jié)果查看器。在線示例: http://demo.pyspider.org/

官方文檔: http://docs.pyspider.org/en/l...

Github : https://github.com/binux/pysp...

本文爬蟲(chóng)代碼 Github 地址:https://github.com/zhisheng17...

更多精彩文章可以在微信公眾號(hào):猿blog 閱讀到,歡迎關(guān)注。

說(shuō)了這么多,我們還是來(lái)看正文吧!

前提:

你已經(jīng)安裝好了Pyspider 和 MySQL-python(保存數(shù)據(jù))

如果你還沒(méi)安裝的話,請(qǐng)看看我的前一篇文章,防止你也走彎路。

  • Pyspider 框架學(xué)習(xí)時(shí)走過(guò)的一些坑
  • HTTP 599: SSL certificate problem: unable to get local issuer certificate錯(cuò)誤

我所遇到的一些錯(cuò)誤:

首先,本爬蟲(chóng)目標(biāo):使用 Pyspider 框架爬取 V2EX 網(wǎng)站的帖子中的問(wèn)題和內(nèi)容,然后將爬取的數(shù)據(jù)保存在本地。

V2EX 中大部分的帖子查看是不需要登錄的,當(dāng)然也有些帖子是需要登陸后才能夠查看的。(因?yàn)楹髞?lái)爬取的時(shí)候發(fā)現(xiàn)一直 error ,查看具體原因后才知道是需要登錄的才可以查看那些帖子的)所以我覺(jué)得沒(méi)必要用到 Cookie,當(dāng)然如果你非得要登錄,那也很簡(jiǎn)單,簡(jiǎn)單地方法就是添加你登錄后的 cookie 了。

我們?cè)?https://www.v2ex.com/ 掃了一遍,發(fā)現(xiàn)并沒(méi)有一個(gè)列表能包含所有的帖子,只能退而求其次,通過(guò)抓取分類(lèi)下的所有的標(biāo)簽列表頁(yè),來(lái)遍歷所有的帖子: https://www.v2ex.com/?tab=tech 然后是 https://www.v2ex.com/go/progr... ***每個(gè)帖子的詳情地址是 (舉例): https://www.v2ex.com/t/314683...

創(chuàng)建一個(gè)項(xiàng)目

在 pyspider 的 dashboard 的右下角,點(diǎn)擊 “Create” 按鈕

替換 on_start 函數(shù)的 self.crawl 的 URL:

 
 
  1. @every(minutes=24 * 60) 
  2.     def on_start(self): 
  3.         self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False)  
  • self.crawl 告訴 pyspider 抓取指定頁(yè)面,然后使用 callback 函數(shù)對(duì)結(jié)果進(jìn)行解析。
  • @every) 修飾器,表示 on_start 每天會(huì)執(zhí)行一次,這樣就能抓到***的帖子了。
  • validate_cert=False 一定要這樣,否則會(huì)報(bào) HTTP 599: SSL certificate problem: unable to get local issuer certificate錯(cuò)誤

首頁(yè):

點(diǎn)擊綠色的 run 執(zhí)行,你會(huì)看到 follows 上面有一個(gè)紅色的 1,切換到 follows 面板,點(diǎn)擊綠色的播放按鈕:

第二張截圖一開(kāi)始是出現(xiàn)這個(gè)問(wèn)題了,解決辦法看前面寫(xiě)的文章,后來(lái)問(wèn)題就不再會(huì)出現(xiàn)了。

Tab 列表頁(yè) :

在 tab 列表頁(yè) 中,我們需要提取出所有的主題列表頁(yè) 的 URL。你可能已經(jīng)發(fā)現(xiàn)了,sample handler 已經(jīng)提取了非常多大的 URL

代碼:

 
 
  1. @config(age=10 * 24 * 60 * 60) 
  2.     def index_page(self, response): 
  3.         for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items(): 
  4.             self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)  
  • 由于帖子列表頁(yè)和 tab列表頁(yè)長(zhǎng)的并不一樣,在這里新建了一個(gè) callback 為 self.tab_page
  • @config(age=10 24 60 * 60) 在這表示我們認(rèn)為 10 天內(nèi)頁(yè)面有效,不會(huì)再次進(jìn)行更新抓取

Go列表頁(yè) :

 代碼:

 
 
  1. @config(age=10 * 24 * 60 * 60) 
  2.  
  3. def tab_page(self, response): 
  4.  
  5. for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items(): 
  6.  
  7. self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)  

帖子詳情頁(yè)(T):

 你可以看到結(jié)果里面出現(xiàn)了一些reply的東西,對(duì)于這些我們是可以不需要的,我們可以去掉。

同時(shí)我們還需要讓他自己實(shí)現(xiàn)自動(dòng)翻頁(yè)功能。

代碼: 

 
 
  1. @config(age=10 * 24 * 60 * 60) 
  2.     def board_page(self, response): 
  3.         for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items(): 
  4.             url = each.attr.href 
  5.             if url.find('#reply')>0: 
  6.                 url = url[0:url.find('#')] 
  7.             self.crawl(url, callback=self.detail_page, validate_cert=False) 
  8.         for each in response.doc('a.page_normal').items(): 
  9.             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) #實(shí)現(xiàn)自動(dòng)翻頁(yè)功能  

去掉后的運(yùn)行截圖:

實(shí)現(xiàn)自動(dòng)翻頁(yè)后的截圖:

此時(shí)我們已經(jīng)可以匹配了所有的帖子的 url 了。

點(diǎn)擊每個(gè)帖子后面的按鈕就可以查看帖子具體詳情了。

 代碼:

 
 
  1. @config(priority=2) 
  2.     def detail_page(self, response): 
  3.         title = response.doc('h1').text() 
  4.         content = response.doc('div.topic_content').html().replace('"', '\\"') 
  5.         self.add_question(title, content)  #插入數(shù)據(jù)庫(kù) 
  6.         return { 
  7.             "url": response.url, 
  8.             "title": title, 
  9.             "content": content, 
  10.         } 

 插入數(shù)據(jù)庫(kù)的話,需要我們?cè)谥岸x一個(gè)add_question函數(shù)。

 
 
  1. #連接數(shù)據(jù)庫(kù) 
  2. def __init__(self): 
  3.         self.db = MySQLdb.connect('localhost', 'root', 'root', 'wenda', charset='utf8') 
  4.  
  5.     def add_question(self, title, content): 
  6.         try: 
  7.             cursor = self.db.cursor() 
  8.             sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()');   #插入數(shù)據(jù)庫(kù)的SQL語(yǔ)句 
  9.             print sql 
  10.             cursor.execute(sql) 
  11.             print cursor.lastrowid 
  12.             self.db.commit() 
  13.         except Exception, e: 
  14.             print e 
  15.             self.db.rollback()  

查看爬蟲(chóng)運(yùn)行結(jié)果:

先debug下,再調(diào)成running。pyspider框架在windows下的bug

設(shè)置跑的速度,建議不要跑的太快,否則很容易被發(fā)現(xiàn)是爬蟲(chóng)的,人家就會(huì)把你的IP給封掉的

查看運(yùn)行工作

查看爬取下來(lái)的內(nèi)容

  

然后再本地?cái)?shù)據(jù)庫(kù)GUI軟件上查詢下就可以看到數(shù)據(jù)已經(jīng)保存到本地了。

自己需要用的話就可以導(dǎo)入出來(lái)了。

在開(kāi)頭我就告訴大家爬蟲(chóng)的代碼了,如果詳細(xì)的看看那個(gè)project,你就會(huì)找到我上傳的爬取數(shù)據(jù)了。(僅供學(xué)習(xí)使用,切勿商用!)

當(dāng)然你還會(huì)看到其他的爬蟲(chóng)代碼的了,如果你覺(jué)得不錯(cuò)可以給個(gè) Star,或者你也感興趣的話,你可以fork我的項(xiàng)目,和我一起學(xué)習(xí),這個(gè)項(xiàng)目長(zhǎng)期更新下去。

***:

代碼:

 
 
  1. # created by 10412 
  2. # !/usr/bin/env python 
  3. # -*- encoding: utf-8 -*- 
  4. # Created on 2016-10-20 20:43:00 
  5. # Project: V2EX 
  6.  
  7. from pyspider.libs.base_handler import * 
  8.  
  9. import re 
  10. import random 
  11. import MySQLdb 
  12.  
  13. class Handler(BaseHandler): 
  14.     crawl_config = { 
  15.     } 
  16.  
  17.     def __init__(self): 
  18.         self.db = MySQLdb.connect('localhost', 'root', 'root', 'wenda', charset='utf8') 
  19.  
  20.     def add_question(self, title, content): 
  21.         try: 
  22.             cursor = self.db.cursor() 
  23.             sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()'); 
  24.             print sql 
  25.             cursor.execute(sql) 
  26.             print cursor.lastrowid 
  27.             self.db.commit() 
  28.         except Exception, e: 
  29.             print e 
  30.             self.db.rollback() 
  31.  
  32.  
  33.     @every(minutes=24 * 60) 
  34.     def on_start(self): 
  35.         self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False) 
  36.  
  37.     @config(age=10 * 24 * 60 * 60) 
  38.     def index_page(self, response): 
  39.         for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items(): 
  40.             self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False) 
  41.  
  42.  
  43.     @config(age=10 * 24 * 60 * 60) 
  44.     def tab_page(self, response): 
  45.         for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items(): 
  46.             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) 
  47.  
  48.  
  49.     @config(age=10 * 24 * 60 * 60) 
  50.     def board_page(self, response): 
  51.         for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items(): 
  52.             url = each.attr.href 
  53.             if url.find('#reply')>0: 
  54.                 url = url[0:url.find('#')] 
  55.             self.crawl(url, callback=self.detail_page, validate_cert=False) 
  56.         for each in response.doc('a.page_normal').items(): 
  57.             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) 
  58.  
  59.  
  60.     @config(priority=2) 
  61.     def detail_page(self, response): 
  62.         title = response.doc('h1').text() 
  63.         content = response.doc('div.topic_content').html().replace('"', '\\"') 
  64.         self.add_question(title, content)  #插入數(shù)據(jù)庫(kù) 
  65.         return { 
  66.             "url": response.url, 
  67.             "title": title, 
  68.             "content": content, 
  69.         }  

本文標(biāo)題:Pyspider框架——Python爬蟲(chóng)實(shí)戰(zhàn)之爬取V2EX網(wǎng)站帖子
文章分享:http://www.5511xx.com/article/dpdgoog.html