iT邦幫忙

2024 iThome 鐵人賽

DAY 28
0

前言

本篇跟大家分享一個小專題概念就是 Linux 的 shell script 來做爬蟲,既然這一篇要分享爬蟲那我先説說爬蟲的概念,首先這是什麼是爬蟲?

什麼是爬蟲?

爬蟲也可以說是網路爬蟲是一種自動化的腳本或程式,用於瀏覽和擷取網站上的資料。它會模擬使用者在網頁上進行操作,自動從網站獲取資料並將這些資料進行存儲或分析,網路爬蟲在搜索引擎(如 Google)的運作中扮演著重要角色,負責搜尋網際網路上的網站內容並將這些內容編入索引,讓使用者能夠透過關鍵字查找到相關的網頁。

網路爬蟲的流程大概如下:

  1. 起始點:爬蟲從一個或多個起始網頁(URL)開始,並將這些網頁下載下來。
  2. 解析網頁內容:解析 HTML 代碼,從中提取出關鍵資料,如文字、圖片、鏈接等。
  3. 追蹤鏈接:爬蟲會識別網頁中的其他鏈接,並繼續沿著這些鏈接進行爬取,擴展其探索範圍。
  4. 資料存儲:將擷取到的資料存儲在本地或數據庫中,後續可用於資料分析或查詢。

網路爬蟲的應用範圍

  • 搜索引擎索引:如 Google、Bing 這類搜索引擎使用網路爬蟲來遍歷網路上的內容,建立網站索引。
  • 數據收集與分析:公司或研究機構使用網路爬蟲來收集特定主題或領域的資料,進行商業情報、趨勢分析或競爭分析。
  • 價格比較:電子商務網站可以使用爬蟲來追蹤競爭對手的價格,提供價格比較服務。

爬蟲的流程圖

shell script 做網路爬蟲概念

主要是透過 Shell 提供的指令和工具來下載和解析網頁內容,然後提取所需的資料,這種方式相較於使用專業爬蟲框架(如 Python 的 Scrapy),會相對簡單,但對於基本的資料抓取任務還是能夠有效地運行。

結論與感想

本篇是我對於爬蟲的介紹以及shell script 要怎麼做爬蟲的概念,下一篇會跟大家介紹如何用 shell script 做爬蟲的實作~~~~

資料來源

https://homuchen.com/posts/crawler-104-jobs-data-using-shell-scripts-curl-and-jq/

https://blog.tibame.com/?p=17890


上一篇
Day 27 - Linux 與 StableDiffusion 的完美搭配
下一篇
Day 29 - Linux Shell Script 爬蟲實作
系列文
0 到 100 Linux快打旋風30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言