iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 8
1
AI & Data

爬蟲在手、資料我有 - 30 天 Scrapy 爬蟲實戰系列 第 8

【Day 7】請求和回應

開始蒐集資料前,需要拿到可以用來「剖析」的原始資料。但平常我們都是打開瀏覽器,輸入網址(甚至常常跳過這步)、可能會輸入一些關鍵字來搜尋、再點選幾個有興趣的連結。

那要怎麼用程式來做呢?首先要先了解瀏覽器是怎麼運作的。

實際上當我們在瀏覽器上輸入網址,或者點選某個連結時,瀏覽器會根據網址向對應的伺服器發送一個請求 / Request伺服器收到請求後進行處理,產生對應的回應 / Response (通常是 HTML)後發送給瀏覽器瀏覽器解析後才會變成我們看到的網頁內容,解析過程中可能會需要再發送額外的請求來載入其他資源(例如 CSS、JavaScript、圖片...)。整個流程簡單來說就像下圖:

https://ithelp.ithome.com.tw/upload/images/20190922/20107875LApakE6Z9E.png

iT 邦幫忙的首頁來說,在網頁上按「右鍵 > 檢視原始碼」或者「Ctrl + U」,就可以看到發送請求後收到的回應了。可以看到回應是一堆 HTML 的語法,就是我們之後會拿來剖析的原始資料。

https://ithelp.ithome.com.tw/upload/images/20190922/201078754u1q4m594r.png

https://ithelp.ithome.com.tw/upload/images/20190922/2010787554TOqPBaYJ.png

那就來寫程式吧!

用 Python 來發送請求

安裝套件

這邊我們使用 requests 這個套件來發送請求。其實後來也有找到其他好用的套件,日後如果有機會再來介紹。

  1. 建立虛擬環境(如果進入昨天的虛擬環境,可以跳到第 3 步)
pipenv --python 3.7

https://ithelp.ithome.com.tw/upload/images/20190923/2010787541lYdmzqom.png

  1. 進入虛擬環境
pipenv shell

https://ithelp.ithome.com.tw/upload/images/20190923/20107875pfRbzIPbWz.png

  1. 安裝套件
pipenv install requests

https://ithelp.ithome.com.tw/upload/images/20190923/20107875Bz25o7AxFE.png

取得網頁原始碼

  1. 發送請求並取得回應
import requests

response = requests.get('https://ithelp.ithome.com.tw/')

requests.get 方法會用 HTTP 的 GET 方法來發送一個請求,並回傳一個 Response 物件。

  1. 使用回應資料
print('回應狀態:', response.status_code)
print('回應標頭:', response.headers['content-type'])
print('回應編碼:', response.encoding)
print('回應內容:', response.text[:100], '...')

https://ithelp.ithome.com.tw/upload/images/20190923/20107875byT2gXPtKA.png

帶有參數的請求

除了以不同的網址來向伺服器請求不同的回應外,也很常看到是用帶參數的方式向伺服器發送請求,雖然前面的網址相同,伺服器仍然會根據參數回傳不同的回應。

常看到的清單換頁、關鍵字查詢、送出表單內容,幾乎都是用這種方式來傳送。

而不同的請求方式,是透過不同的請求方法HTTP request methods)來完成的,這邊介紹一下比較常用的 GETPOST 兩種方法,同時看一下怎麼用程式來完成。

HTTP GET

前面看到的 requests.get('https://ithelp.ithome.com.tw/') 就是一種沒有帶參數的 GET 請求。

當我們想要在 iT 邦幫忙用關鍵字查詢相關文章的時候,就可以看到用 GET 請求帶參數的方式了。

https://ithelp.ithome.com.tw/upload/images/20190922/20107875ITCwokkRsY.png

https://ithelp.ithome.com.tw/upload/images/20190922/20107875rY7QG7dC5X.png

可以發現當我們依步驟做完後,網址變成「 https://ithelp.ithome.com.tw/search?search=python&tab=question 」,其中 ? 後的就是這次請求的參數(又稱查詢字串query string)。多組參數可以用 & 來組合;每組參數的 = 左邊是參數名稱,右邊是參數值。所以這個請求實際會帶兩個參數給伺服器:

參數名稱
serach python
tab question

requests 套件有兩種方式來發送 GET 請求:

  1. 跟前面的範例一樣直接給網址
import requests

response = requests.get('https://ithelp.ithome.com.tw/search?search=python&tab=question')
  1. 提供 requests.get 方法額外的參數
import requests

payload = {
    'search': 'python',
    'tab': 'question'
}
response = requests.get('https://ithelp.ithome.com.tw/search', params=payload)
print(response.url)

https://ithelp.ithome.com.tw/upload/images/20190923/20107875c57BJ1gZ2x.png

HTTP POST

因為 GET 方法有一些限制:

  1. 瀏覽器或伺服器都對網址的長度有限制,所以不能傳送太長的參數
  2. 參數直接顯示在網址內,相對來說較不安全
  3. 能傳送的參數類型有限

所以在某些情況下會使用 POST 方法來發送請求(例如登入、上傳檔案):

  1. 長度原則上不受限制(但伺服器端可以設定每次請求的大小上限)
  2. 不會直接看到參數,相對來說較安全(但實際上可以在封包 HTTP Message - Request Body 中看到)
  3. 根據 Content-Type 可以傳送不同類型的參數內容

為了方便說明用 requests 套件發送 POST 請求的方式,我們用 httpbin 這個網站來測試。

httpbin 會將收到的請求以特定的格式回應,可以驗證請求內容是否有符合預期 ,可以找戰犯看到底是請求端還是伺服器端的問題,在需要發送外部請求但一直找不到問題時是個挺好用的工具。

requests 套件中的 requests.post 方法可以用來發送 POST 請求。

import requests
import pprint

payload = {
    'name': 'Rex',
    'topic': 'python'
}
response = requests.post('https://httpbin.org/post', data=payload)
pprint.pprint(response.json())

https://ithelp.ithome.com.tw/upload/images/20190923/20107875on7fXrR2sC.png


今天我們知道怎麼用 Python 來發請求了,明天就來試試怎麼爬取 iT 邦幫忙的文章吧!


上一篇
【Day 6】剖析網頁原始內容 (2/2) - XML
下一篇
【Day 8】蒐集 iT 邦幫忙的技術文章 (1/6) - 列表頁
系列文
爬蟲在手、資料我有 - 30 天 Scrapy 爬蟲實戰33
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言