iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 25
0
自我挑戰組

用Line聊天機器人串起多媒體系統系列 第 25

Day 25 : 用 Python 擷取 PTT 、 匯率及熱門迷因圖實作

  • 分享至 

  • xImage
  •  

網頁擷取實例

以 PTT 為例

1. 觀察網頁

  • 這邊開始要示範使用Chrome開發者工具進行搜尋,先觀察目標網頁,我們以PTT 的 JOKE 版為例,網址 https://www.ptt.cc/bbs/joke/index.html
  • 使用 Chrome 瀏覽器,以滑鼠右鍵選擇「檢查」,快捷鍵在 windows 環境為ctrl + Shift + IF12 :
  • 檢閱器的左上方有個按鈕,點此可以用滑鼠選取觀察元素。
  • 文章列表可以觀察到推文數、文章標題、作者、日期及文章連結。
  • 我們先觀察他的樹狀結構,對應的標籤與屬性。

2. 擷取網頁

  • 目標網址 https://www.ptt.cc/bbs/joke/index.html ,有輸出前500字表示擷取成功。

    import requests
    from bs4 import BeautifulSoup
    
    res = requests.get('https://www.ptt.cc/bbs/joke/index.html')
    soup = BeautifulSoup(res.text ,"lxml")
    print(res.text[:500])
    
  • 接下來如果簡單針對該頁面的連結、標題觀察,發現div 標籤的 class='r-ent' 有可疑的味道:

  • soup.select("div.r-ent")把一個個貼文都抓下來,結果會是個 Python 的串列 list,以逗號區隔,還充斥著網頁標籤的味道:

    results = soup.select("div.title")
    print(results)
    

  • 試圖擷取超連結,繼續以 soup.select() 定位所需資訊:

    article_href = soup.select("div.title a")
    print(article_href)
    

  • 逐一取出標題、合併超連結:

    for a in article_href:
      print('title:', a.text)
      print('href:','https://www.ptt.cc'+a['href'])
    

  • PPT 部分版會詢問是否滿18歲,那就觀察網頁模仿點選滿18歲的送出內容,原來是 requests.get 要加cookies = {'over18': '1'} 參數,整理為會說已滿18的程式如下,如您未滿18歲請據實回答喔:

    #需滿18歲要加cookies = {'over18': '1'}
    import requests
    
    def PTT_check_over_18(url):
        """
        如果被詢問需要大於18歲時,自動點符合
        :url 要解析的網址
        """
        response = requests.get(url)
        response = requests.get(url, cookies={'over18': '1'})  # 一直向 server 回答滿 18 歲了 !
        return response
    
    url = 'https://www.ptt.cc/bbs/Gossiping/index.html'
    resp = PTT_check_over_18(url)  
    print(resp.text[:500]) 
    

以全球即時匯率 API 為例:

  • 網路上許多資料其實都有整理為 JSON 格式方便取用,接下來以全球即時匯率做為示範,而且已經有示範程式了,還不把他加到機器人功能裡!
    • 匯率資料來源:https://tw.rter.info/howto_currencyapi.php#

    • 網頁說明:

    • 程式碼:

      import requests
      r=requests.get('https://tw.rter.info/capi.php')
      currency=r.json()
      
      • requests.get() 取得的網頁資訊,如果是 JSON 形式如圖:
      • 則可以用 requests.get().json() 轉為 Python 的字典 dict 資料型態。
    • Python 的字典 dict 操作相當方便,譬如我要台幣匯率,循字典的樹狀結構的鍵值 keys查詢即可。

      usd_to_twd = currency['USDTWD']['Exrate']
      usd_to_twd
      
    • 同理要顯示時間也只需要 currency['USDTWD']['UTC'] 即可。

  • 整理台幣匯率的程式碼作為 usd_to_twd() 函數方便日後使用:
    import requests
    
    def usd_to_twd():
        """
        台幣目前匯率
        """
        r=requests.get('https://tw.rter.info/capi.php')
        currency=r.json()
        usd_to_twd = currency['USDTWD']['Exrate']
        currency_time = currency['USDTWD']['UTC']
        return f'台幣匯率: {usd_to_twd},更新時間: {currency_time}'
    

在看我們 Day 8在梗圖網站做了甚麼

  • Day 8 : LINE Notify 訊息推播通知 (Python版)Colab示範裡有塞的一段網頁擷取的程式,還原當時使用的程式碼如下:
    import requests
    from bs4 import BeautifulSoup as bs
    
    url = 'https://memes.tw/wtf' # 爬取https://memes.tw/wtf中網友創作的第一張梗圖
    img = bs(requests.get(url).text ,"lxml").find_all("", {'class': 'img-fluid'})[0]['data-src']
    
  • 當時我們只擷取了第一張網友創作梗圖,因為您可能尚未具備爬蟲觀念及 Python 程式操作概念,故尚未解釋。現在的您應該可以注意到,如果我們將 .find_all("", {'class': 'img-fluid'})[0]['data-src'] 中間的 [0] 改以 for迴圈依序處裡,該頁面有幾張圖都可以取出來,觀察網站發現最多顯示為 20 張圖。
  • 於是花了點時間做成了 memes_hot_imgs() 函數,方便日後取用。
    import requests
    from bs4 import BeautifulSoup as bs
    
    def memes_hot_imgs(how_many = 1):
        """
        可回傳'https://memes.tw/wtf'網友創作熱門迷因圖,
        :how_many 參數接受整數1~20,預設=1,即至多回傳20張圖。
        """
        url = 'https://memes.tw/wtf'
        imgs = bs(requests.get(url).text ,"lxml")
        imgs_list = []
        if how_many > 20: #每頁至多20張限制
            how_many = 20
        for img in range(how_many):
            _ = imgs.find_all("", {'class': 'img-fluid'})[img]['data-src']
            imgs_list.append(_)
        return imgs_list
    
  • 另外也試著以列表推倒式改寫成了 memes_hot_imgs2() 函數,兩者功能相同,您喜歡哪種口味呢?
    import requests
    from bs4 import BeautifulSoup as bs
    
    def memes_hot_imgs2(how_many = 1):
        """
        可回傳'https://memes.tw/wtf'網友創作熱門迷因圖,
        :how_many 參數接受整數1~20,預設=1,即至多回傳20張圖。
        """
        url = 'https://memes.tw/wtf'
        imgs = bs(requests.get(url).text ,"lxml")
        imgs_list = []
        if how_many > 20: #每頁至多20張限制
            how_many = 20
        imgs_list = [ imgs.find_all("", {'class': 'img-fluid'})[img]['data-src'] for img in range(how_many)]
        return imgs_list
    
    • 呼叫函式 memes_hot_imgs2() 也可以運作。

小結

  • 本篇以 3 個實際案例來展示如何擷取資料,包含從 PTT 網頁版本、 接收匯率 API 傳輸的 JSON 檔案,以及補充先前實作在 LINE Notify 的熱門梗圖改進版。我們也將在後續文章將包裝好的函數功能實作到您的LINE ChatBOT裡,我們下篇見。

上一篇
Day 24 : Python 常用網路資料擷取術
下一篇
Day 26 : 用 Python 上傳圖片至 Imgur 圖床
系列文
用Line聊天機器人串起多媒體系統30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言