日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷(xiāo)解決方案
Python pyspider的安裝與開(kāi)發(fā)

PySpider 簡(jiǎn)介

創(chuàng)新互聯(lián)是一家集網(wǎng)站設(shè)計(jì)制作、成都網(wǎng)站設(shè)計(jì)、網(wǎng)站頁(yè)面設(shè)計(jì)、網(wǎng)站優(yōu)化SEO優(yōu)化為一體的專(zhuān)業(yè)網(wǎng)站設(shè)計(jì)公司,已為成都等多地近百家企業(yè)提供網(wǎng)站建設(shè)服務(wù)。追求良好的瀏覽體驗(yàn),以探求精品塑造與理念升華,設(shè)計(jì)最適合用戶的網(wǎng)站頁(yè)面。 合作只是第一步,服務(wù)才是根本,我們始終堅(jiān)持講誠(chéng)信,負(fù)責(zé)任的原則,為您進(jìn)行細(xì)心、貼心、認(rèn)真的服務(wù),與眾多客戶在蓬勃發(fā)展的市場(chǎng)環(huán)境中,互促共生。

PySpider是一個(gè)國(guó)人編寫(xiě)的強(qiáng)大的網(wǎng)絡(luò)爬蟲(chóng)系統(tǒng)并帶有強(qiáng)大的WebUI。采用Python語(yǔ)言編寫(xiě),分布式架構(gòu),支持多種數(shù)據(jù)庫(kù)后端,強(qiáng)大的WebUI支持腳本編輯器、任務(wù)監(jiān)視器,項(xiàng)目管理器以及結(jié)果查看器。

PySpider 來(lái)源于以前做的一個(gè)垂直搜索引擎使用的爬蟲(chóng)后端。我們需要從200個(gè)站點(diǎn)(由于站點(diǎn)失效,不是都同時(shí)啦,同時(shí)有100+在跑吧)采集數(shù)據(jù),并要求在5分鐘內(nèi)將對(duì)方網(wǎng)站的更新更新到庫(kù)中。所以,靈活的抓取控制是必須的。

同時(shí),由于100個(gè)站點(diǎn),每天都可能會(huì)有站點(diǎn)失效或者改版,所以需要能夠監(jiān)控模板失效,以及查看抓取狀態(tài)。

為了達(dá)到5分鐘更新,我們使用抓取最近更新頁(yè)上面的最后更新時(shí)間,以此來(lái)判斷頁(yè)面是否需要再次抓取。

可見(jiàn),這個(gè)項(xiàng)目對(duì)于爬蟲(chóng)的監(jiān)控和調(diào)度要求是非常高的。

  • PySpider 中文網(wǎng):http://www.pyspider.cn
  • PySpider 官網(wǎng):http://docs.pyspider.org
  • PySpider 演示:http://demo.pyspider.org
  • PySpider 源碼:https://github.com/binux/pyspider

PySpider 特性

python 腳本控制,可以用任何你喜歡的html解析包(內(nèi)置 pyquery)

WEB 界面編寫(xiě)調(diào)試腳本、起停腳本、監(jiān)控執(zhí)行狀態(tài),查看活動(dòng)歷史,獲取結(jié)果產(chǎn)出

數(shù)據(jù)存儲(chǔ)支持MySQL、MongoDB、Redis、SQLite、 ElasticSearch; PostgreSQL 及 SQLAlchemy

隊(duì)列服務(wù)支持RabbitMQ、Beanstalk、Redis、Kombu

支持抓取 JavaScript 的頁(yè)面

組件可替換,支持單機(jī)/分布式部署,支持 Docker 部署

強(qiáng)大的調(diào)度控制,支持超時(shí)重爬及優(yōu)先級(jí)設(shè)置

支持Python 2.{6, 7}, 3.{3, 4, 5, 6}

PySpider 安裝

1) pip 安裝

pip可以在以下版本的CPython下運(yùn)行:2.6, 2.7, 3.1, 3.2, 3.3, 3.4 和 pypy.

pip可以在Unix/Linux、Mac OS X、Windows系統(tǒng)中運(yùn)行.

a)腳本安裝

python get-pip.py

如果 setuptools (或 distribute) 未安裝, get-pip.py

會(huì) 自動(dòng)為你安裝 setuptools

如果需要升級(jí) setuptools (或 distribute),運(yùn)行 pip install -U setuptools

b)命令安裝

sudo apt-get install python-pip // Debian、Ubuntu

sudo yum install python-pip // CentOS、Redhat、Fedora

2)PhantomJS 安裝

PhantomJS 是一個(gè)基于 WebKit 的服務(wù)器端 JavaScript API。它全面支持web而不需瀏覽器支持,其快速、原生支持各種Web標(biāo)準(zhǔn):DOM 處理、CSS 選擇器、JSON、Canvas 和 SVG。 PhantomJS 可以用于頁(yè)面自動(dòng)化、網(wǎng)絡(luò)監(jiān)測(cè)、網(wǎng)頁(yè)截屏以及無(wú)界面測(cè)試等。支持Windows、Linux、Mac OS X等多操作系統(tǒng)。

PhantomJS 下載:http://phantomjs.org/download.html

PhantomJS不需要安裝,解壓后,配置環(huán)境變量后,便可直接使用,詳見(jiàn) PhantomJS 安裝與開(kāi)發(fā)

PhantomJS 安裝命令:

sudo apt-get install phantomjs // Debian、Ubuntu

sudo pkg install phantomjs // FreeBSD

brew install phantomjs // Mac OS X

3)PySpider 安裝

PySpider 安裝的依賴(lài)包 requirements.txt

 
 
 
 
  1. Flask>=0.10 
  2. Jinja2>=2.7 
  3. chardet>=2.2 
  4. cssselect>=0.9 
  5. lxml 
  6. pycurl 
  7. pyquery 
  8. requests>=2.2 
  9. tornado>=3.2 
  10. mysql-connector-python>=1.2.2 
  11. pika>=0.9.14 
  12. pymongo>=2.7.2 
  13. unittest2>=0.5.1 
  14. Flask-Login>=0.2.11 
  15. u-msgpack-python>=1.6 
  16. click>=3.3 
  17. SQLAlchemy>=0.9.7 
  18. six>=1.5.0 
  19. amqp>=1.3.0,<2.0 
  20. redis 
  21. redis-py-cluster 
  22. kombu 
  23. psycopg2 
  24. elasticsearch 
  25. tblib  

PySpider 安裝命令:

 
 
 
 
  1. pip install pyspider 

Ubuntu 用戶,請(qǐng)?zhí)崆鞍惭b好以下支持類(lèi)庫(kù):

 
 
 
 
  1. sudo apt-get install python python-dev python-distribute python-pip libcurl4-openssl-dev libxml2-dev libxslt1-dev python-lxml 

4)驗(yàn)證安裝成功

控制臺(tái)輸入命令:

 
 
 
 
  1. pyspider all 

使用瀏覽器訪問(wèn) http://localhost:5000

正常出現(xiàn) PySpider 的頁(yè)面,那證明一切 OK

PySpider 示例

1)示例1:爬取米撲科技首頁(yè)(mimvp.com)

 
 
 
 
  1. #!/usr/bin/env python 
  2. # -*- encoding: utf-8 -*- 
  3. # Created on 2017-07-28 13:44:53 
  4. # Project: pyspiderdemo 
  5. # mimvp.com 
  6.   
  7. from pyspider.libs.base_handler import * 
  8.   
  9.   
  10. class Handler(BaseHandler): 
  11.     crawl_config = { 
  12.     } 
  13.   
  14.     @every(minutes=24 * 60) 
  15.     def on_start(self): 
  16.         self.crawl('mimvp.com', callback=self.index_page) 
  17.   
  18.     @config(age=10 * 24 * 60 * 60) 
  19.     def index_page(self, response): 
  20.         for each in response.doc('a[href^="http"]').items(): 
  21.             self.crawl(each.attr.href, callback=self.detail_page) 
  22.   
  23.     @config(priority=2) 
  24.     def detail_page(self, response): 
  25.         return { 
  26.             "url": response.url, 
  27.             "title": response.doc('title').text(), 
  28.         }  

運(yùn)行結(jié)果:

2)示例2:設(shè)置代理爬取網(wǎng)頁(yè)

PySpider 支持使用代理爬取網(wǎng)頁(yè),其使用代理有兩種方式:

方式1:

--phantomjs-proxy TEXT phantomjs proxy ip:port

啟動(dòng)命令例如:

pyspider --phantomjs-proxy "188.226.141.217:8080" all

方式2:

設(shè)置代理全局變量,如下圖:

crawl_config = { 'proxy' : '188.226.141.217:8080'}

示例代碼:

 
 
 
 
  1. #!/usr/bin/env python 
  2. # -*- encoding: utf-8 -*- 
  3. # Created on 2017-07-28 14:13:14 
  4. # Project: mimvp_proxy_pyspider 
  5. # mimvp.com 
  6.   
  7. from pyspider.libs.base_handler import * 
  8.   
  9.   
  10. class Handler(BaseHandler): 
  11.     crawl_config = { 
  12.         'proxy' : 'http://188.226.141.217:8080',     # http 
  13.         'proxy' : 'https://182.253.32.65:3128'      # https 
  14.     } 
  15.   
  16.     @every(minutes=24 * 60) 
  17.     def on_start(self): 
  18.         self.crawl('http://proxy.mimvp.com/exist.php', callback=self.index_page) 
  19.   
  20.     @config(age=10 * 24 * 60 * 60) 
  21.     def index_page(self, response): 
  22.         for each in response.doc('a[href^="http"]').items(): 
  23.             self.crawl(each.attr.href, callback=self.detail_page) 
  24.   
  25.     @config(priority=2) 
  26.     def detail_page(self, response): 
  27.         return { 
  28.             "url": response.url, 
  29.             "title": response.doc('title').text(), 
  30.         }  

運(yùn)行結(jié)果:


分享標(biāo)題:Python pyspider的安裝與開(kāi)發(fā)
文章轉(zhuǎn)載:http://www.5511xx.com/article/copiped.html