日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
淺談Python兩大爬蟲庫(kù)—urllib庫(kù)和requests庫(kù)區(qū)別

[[400370]]

一、前言

在使用Python爬蟲時(shí),需要模擬發(fā)起網(wǎng)絡(luò)請(qǐng)求,主要用到的庫(kù)有requests庫(kù)和python內(nèi)置的urllib庫(kù),一般建議使用requests,它是對(duì)urllib的再次封裝。

那它們兩者有什么區(qū)別 ?

下面通過案例詳細(xì)的講解 ,了解他們使用的主要區(qū)別。

二、urllib庫(kù)

簡(jiǎn)介:

urllib庫(kù)的response對(duì)象是先創(chuàng)建http,request對(duì)象,裝載到reques.urlopen里完成http請(qǐng)求。

返回的是http,response對(duì)象,實(shí)際上是html屬性。使用.read().decode()解碼后轉(zhuǎn)化成了str字符串類型,decode解碼后中文字符能夠顯示出來(lái)。

 
 
 
 
  1. from urllib import request 
  2. #請(qǐng)求頭 
  3. headers = { 
  4.     "User-Agent": 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36' 
  5. wd = {"wd": "中國(guó)"} 
  6. url = "http://www.baidu.com/s?" 
  7. req = request.Request(url, headers=headers) 
  8. response = request.urlopen(req) 
  9. print(type(response)) 
  10. print(response) 
  11. res = response.read().decode() 
  12. print(type(res)) 
  13. print(res) 

運(yùn)行結(jié)果:

注意:

通常爬取網(wǎng)頁(yè),在構(gòu)造http請(qǐng)求的時(shí)候,都需要加上一些額外信息,什么Useragent,cookie等之類的信息,或者添加代理服務(wù)器。往往這些都是一些必要的反爬機(jī)制。

三、requests庫(kù)

簡(jiǎn)介:

requests庫(kù)調(diào)用是requests.get方法傳入url和參數(shù),返回的對(duì)象是Response對(duì)象,打印出來(lái)是顯示響應(yīng)狀態(tài)碼。

通過.text 方法可以返回是unicode 型的數(shù)據(jù),一般是在網(wǎng)頁(yè)的header中定義的編碼形式,而content返回的是bytes,二級(jí)制型的數(shù)據(jù),還有 .json方法也可以返回json字符串。

如果想要提取文本就用text,但是如果你想要提取圖片、文件等二進(jìn)制文件,就要用content,當(dāng)然decode之后,中文字符也會(huì)正常顯示。

requests的優(yōu)勢(shì):

Python爬蟲時(shí),更建議用requests庫(kù)。因?yàn)閞equests比urllib更為便捷,requests可以直接構(gòu)造get,post請(qǐng)求并發(fā)起,而urllib.request只能先構(gòu)造get,post請(qǐng)求,再發(fā)起。

例:

 
 
 
 
  1. import requests 
  2.  
  3. headers = { 
  4.     "User-Agent": "Mozilla/5.0 (Linux; U; Android 8.1.0; zh-cn; BLA-AL00 Build/HUAWEIBLA-AL00) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/57.0.2987.132 MQQBrowser/8.9 Mobile Safari/537.36" 
  5. wd = {"wd": "中國(guó)"} 
  6. url = "http://www.baidu.com/s?" 
  7. response = requests.get(url, params=wd, headers=headers) 
  8. data = response.text 
  9. data2 = response.content 
  10. print(response) 
  11. print(type(response)) 
  12. print(data) 
  13. print(type(data)) 
  14. print(data2) 
  15. print(type(data2)) 
  16. print(data2.decode()) 
  17. print(type(data2.decode())) 

運(yùn)行結(jié)果 (可以直接獲取整網(wǎng)頁(yè)的信息,打印控制臺(tái)):

四、總結(jié)

本文基于Python基礎(chǔ),主要介紹了urllib庫(kù)和requests庫(kù)的區(qū)別。

在使用urllib內(nèi)的request模塊時(shí),返回體獲取有效信息和請(qǐng)求體的拼接需要decode和encode后再進(jìn)行裝載。進(jìn)行http請(qǐng)求時(shí)需先構(gòu)造get或者post請(qǐng)求再進(jìn)行調(diào)用,header等頭文件也需先進(jìn)行構(gòu)造。

requests是對(duì)urllib的進(jìn)一步封裝,因此在使用上顯得更加的便捷,建議在實(shí)際應(yīng)用當(dāng)中盡量使用requests。

希望能給一些對(duì)爬蟲感興趣,有一個(gè)具體的概念。方法只是一種工具,試著去爬一爬會(huì)更容易上手,網(wǎng)絡(luò)也會(huì)有很多的坑,做爬蟲更需要大量的經(jīng)驗(yàn)來(lái)應(yīng)付復(fù)雜的網(wǎng)絡(luò)情況。

希望大家一起探討學(xué)習(xí), 一起進(jìn)步。


網(wǎng)站標(biāo)題:淺談Python兩大爬蟲庫(kù)—urllib庫(kù)和requests庫(kù)區(qū)別
網(wǎng)站網(wǎng)址:http://www.5511xx.com/article/dhoicpo.html