iT邦幫忙

2022 iThome 鐵人賽

DAY 30
0
AI & Data

30天帶你從零基礎到Python爬蟲系列 第 30

[Day30] 爬蟲實戰演練 - iThome文章標題2.0

  • 分享至 

  • xImage
  •  

還記得[Day29] 爬蟲實戰演練 - iThome文章標題抓下來的內容嗎?有沒有發現它只有我第一頁文章的標題,明明我就有超級多優質的文章(自己說),這是因為給的網址就是第一頁的網址而已,程式當然不會幫你抓之後的資訊,那我要怎麼樣才能抓完所有的呢?就要結合上上篇提到的Selenium套件來模擬人點選下一頁。

最一開始先import需要用到的package,並開啟ChromeDriver,再透過BeautifulSoup的get()抓取網頁程式碼。

from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from bs4 import BeautifulSoup

s = Service(executable_path=r'./chromedriver')
driver = webdriver.Chrome(service=s)
driver.get("https://ithelp.ithome.com.tw/users/20140998/ironman/4362?page=1")

接著先找到所需資訊在HTML裡的所在位置,和之前是一樣的寫法。

html = BeautifulSoup(driver.page_source, "html.parser")
elements = html.find_all("div", {"class": "qa-list"})
    for element in elements:
        title = element.find("a", {"class", "qa-list__title-link"}).getText().strip()
        print(title)
        print("-"*30)

再來就是要動態抓取了,抓完第一頁我還要去第二頁找,抓完第二頁再去第三頁...,這邊就加上迴圈。
page_next = driver.find_elements(By.XPATH, "//div[@class='profile-pagination']//li/a")[-1]是讓程式找到「下一頁」的所在位置,這邊我使用By.XPATH來定位轉換頁面的按鈕,由於畫面底下有很多頁的選項,//li/a找到的會是每一個按鈕,但我要的是「下一頁」,它是所有按鈕中的最後一個,就可以用[-1]快速找到!

from selenium.webdriver.common.by import By
import time

for page in range(1, 5):  # 執行1~4頁
    html = BeautifulSoup(driver.page_source, "html.parser")
    elements = html.find_all("div", {"class": "qa-list"})

    print("-"*10, "第", page, "頁", "-"*10)
    for element in elements:
        title = element.find("a", {"class", "qa-list__title-link"}).getText().strip()
        print(title)
        print("-"*30)
    page_next = driver.find_elements(By.XPATH, "//div[@class='profile-pagination']//li/a")[-1]
    page_next.click()  # 點擊下一頁按鈕

    time.sleep(1)  # 暫停1秒

完整程式碼

from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By
from bs4 import BeautifulSoup
import time

s = Service(executable_path=r'./chromedriver')
driver = webdriver.Chrome(service=s)
driver.get("https://ithelp.ithome.com.tw/users/20140998/ironman/4362?page=1")

for page in range(1, 5):  # 執行1~4頁
    html = BeautifulSoup(driver.page_source, "html.parser")
    elements = html.find_all("div", {"class": "qa-list"})

    print("-"*10, "第", page, "頁", "-"*10)
    for element in elements:
        title = element.find("a", {"class", "qa-list__title-link"}).getText().strip()
        print(title)
        print("-"*30)
    page_next = driver.find_elements(By.XPATH, "//div[@class='profile-pagination']//li/a")[-1]
    page_next.click()  # 點擊下一頁按鈕

    time.sleep(1)  # 暫停1秒

這個系列到這邊就結束啦~希望看完這30篇可以幫助你利用爬蟲快速取得你想要的資料/images/emoticon/emoticon42.gif
如果看完閒閒沒事可以繼續關注我的另一個鐵人賽系列,因為另一系列比較晚開賽,所以這幾天還會繼續更新,祝我可以順利完賽(?),也祝大家寫扣順利~


上一篇
[Day29] 爬蟲實戰演練 - iThome文章標題
系列文
30天帶你從零基礎到Python爬蟲30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

1 則留言

0
魚魚
iT邦新手 5 級 ‧ 2022-09-30 09:14:40

恭喜完賽!
Java篇加油!

霓霓 iT邦新手 3 級 ‧ 2022-09-30 09:32:32 檢舉

謝謝你/images/emoticon/emoticon02.gif

我要留言

立即登入留言