iT邦幫忙

2024 iThome 鐵人賽

DAY 5
1

https://ithelp.ithome.com.tw/upload/images/20240918/20168816iUj5OT7eNw.png

故事回到 Day 02 講的新創團隊弄的網購服務吧。本來只有兩個工程師在開發功能,沒想到這個平台有口皆碑,用戶一傳十十傳百,現在用戶已達千萬等級。為了落實『一站式』服務的理念,團隊也持續擴編,把金流、物流、倉儲、訂購、顧客還有 APP 拆分成一個個微服務 (micro-service) 小組各自進行開發,彼此功能透過 API 來相互聯通。

組織的拆分讓資料分析師一個頭兩個大,要做個訂單 x 商品與顧客的交互分析,得和各個小組各自要資料,不但資料可能對不起來,取用的介面也不方便,有的團隊給 CSV,有的開了個 API 內部接口要自己打參數。

自此我們才發現,『資料和程式碼的交鋒』終究要各自處理的,應用程式可以拆成微服務,資料得放在一起才能交互運用啊!

資料多樣性


https://ithelp.ithome.com.tw/upload/images/20240918/20168816KQpmNzk3iE.png
圖/Data Pipeline 的不同運用場景。簡書廷製。

再讓我們看一次這張資料處理流程,黑色的桶子不只是不同的表,而是不同微服務各自的資料集 (dataset),這也再次呼應了 Day 03 所提到的資料寬度。資料除了有著服務場景的不同,本身的特性也會影響處理的手法,初步分類如下:

  1. 結構化資料 (Structured Data):例如顧客購物表,包含顧客 id、姓名、電子郵件、購買日期、商品 id、數量、價格等欄位。格式是資料表 (dataframe)。
  2. 非結構化資料 (Unstructured Data):例如顧客評論『這件衣服非常舒適,顏色很好搭』『我不喜歡這雙鞋子的品質。』。格式可能是文字、圖片影片、音訊等。
  3. 半結構化資料 (Semi-structured Data):例如 JSON 格式的產品資訊,可以包含一些必要欄位,又兼容結構彈性。
{
  "product_id": "12345",
  "name": "智慧型手機",
  "categories": ["3C", "手機"],
  "price": 13,500.00,
  "reviews": [
    {
      "user_id": "67890",
      "rating": 5,
      "comment": "非常好!"
    }
  ]
}

資料中心化


無論是資料湖 (Data Lake) 或是資料倉儲 (Data Warehouse) 都是用來集中儲存各處所來的資料。但資料倉儲需要嚴謹的資料表 Schema 定義欄位特性,例如:儲存整數 (integer) 的欄位,就不能存放文字 (string)。但也因為這樣的嚴謹性,所以適合用 SQL 查詢、計算及分析。資料湖就沒有 schema 的限制了,可以放入任何格式的資料,包含結構化、半結構化或非結構化的資料,但要做統計時就不方便。

所以,在 Day 04 提到靜態資料儲存成本小於轉換成本的背景條件下,ELT 流程的設計上可能會先讓不同格式的資料都先快速地進到資料湖,再開發轉換的部分,後續才送進資料倉儲。兩者的拼接並存兼容了取用彈性及設計嚴謹帶來的資料品質。

資料架構演進


https://ithelp.ithome.com.tw/upload/images/20240918/20168816ZCqoiWJP93.png
Source: The Modern Cloud Data Platform by Alice LaPlante (ISBN: 9781492087946)

上面這張圖說明了資料運用隨時間的推移。20 世紀末針對商業智慧運用 (Business Intelligence, BI) 及報表產製 (reports) 就已有資料倉儲的概念。把營運資料 (operation data, 也就是我們之前說的 in-house data) 和外部資料 (external data) 結合,透過 ETL 流程將資料轉換送進資料倉儲,根據分析場域進行分送,最後產出報表或儀表板 (dashboard)。

進到 21 世紀後,機器學習 (machine learning) 逐漸被運用到企業裡,例如:

  1. 結構化資料應用:透過顧客購物記錄來預測顧客的留存與流失。
  2. 非結構化資料應用:將顧客的評論進行自然語言處理(Neuro-Linguistic Programming, NLP)來分析情感。判斷評論的情感傾向 (正面、負面或中性),以了解顧客對產品的滿意度和改進建議,進而改善產品或服務。
  3. 半結構化資料應用:可以根據顧客的歷史購買記錄和商品的屬性(如類別、價格)來生成個性化的商品推薦,這就是一種結構化與半結構化 JSON 格式的結合應用。

只能支援結構化資料的資料倉儲不再能夠完全符合後續運用場景,因此有了資料湖的出現。有些資料團隊選擇將兩種系統拼接在一起,擷取各自的優點,但隨之而來的就是重複資料、額外的基礎建設成本、資訊安全挑戰等等。

此時資料湖倉 (Data Lakehouse) 應運而生,它的出現整合了資料湖與資料倉儲的優點,包含低成本的儲存費用、格式彈性,但又能透過資料人熟悉的 SQL 語句進行高效能的查詢。資料湖倉具體上有哪些特點呢?

  1. Metadata layers:它建立於開源資料儲存格式 (open file formats,一種公開的規範,任何人都可以使用或擴展)之上,並追蹤哪些檔案是不同表版本的一部分,也就可以據此做版本控制,重現資料表過去情況。
    舉例而言,用於 column-based 資料庫的 Parquet 檔案就是一種開源資料儲存格式,而建構於其上的 Metadata layer 就能善用 column-based 的特性,在分析計算時,效能不會被其他欄位給拖垮。
  2. 查詢引擎 (Search engine):透過查詢引擎設計,使用者仍然可以透過執行 SQL 去搜尋對應的資料檔案,並且維持高效能。原理是在建立檔案儲存層時,按照資料的頻繁使用程度分離,並按照常用的欄位去拆分資料夾。也就是說,在資料庫裡建索引 (index) 和分表 (partition) 的手法,對應到檔案管理上,就是適當的拆分資料夾提升搜索效率。至於 SQL 如何映射到檔案搜尋上,目前 Presto/Trino、Hive、Spark、Athena 都是可能的解方。
  3. 共用性:例如 DS/ML 生態系統中流行的工具 pandas、TensorFlow、PyTorch 以及其他已經可以輕鬆存取 Parquet 。這對提高機器學習的可重現性很有幫助。

總結起來,資料湖倉想透過檔案形式的資料,改善資料湖與資料倉儲並行時的高成本問題,但又不想割捨資料庫的查詢效率,因此得引入查詢引擎的設計,這也是一個建構成本。資料團隊在做選擇時,除了資料本身的查詢/儲存成本外,工程師開發/維護系統的成本也要考慮進去。

https://ithelp.ithome.com.tw/upload/images/20240918/20168816utkfRTNuz3.png
圖/資料倉儲、資料湖與資料湖倉的綜合比較。簡書廷製。

Data Team 的定位


https://ithelp.ithome.com.tw/upload/images/20240918/20168816enYkF8zlSS.png

圖/電商平台的資料運用。簡書廷製。

資料團隊在整個公司裡,就像是一個資料中心一樣,無論選用了資料倉儲 + 資料湖的雙拼架構,還是新世代的資料湖倉,對資料使用者而言只有一個期待:『盡快給我高品質的資料。』這當然也是每個資料團隊的目標,為了發揮資料本身的價值,資料中心需要具備以下能力:

  • 資料消化 Data Ingestion
  • 資料轉換 Data Transformation
  • 資料治理 Data Governance
  • 資料維運 DataOps

所以,資料工程師並非不管程式碼只管資料,而是*『為了盡快提供高品質的資料,而在資料基礎建設與資料處理上煞費苦心(與大量的時間)』*。
有趣的是,後端工程師在 Reverse ETL 上,是資料的取用者 (consumer),但從上面的圖看起來,也同時是資料的產製者 (producer),所以說到底,程式碼 (應用程式) 和資料還是分不開呀~


上一篇
《資料與程式碼的交鋒》Day 04 - 資料管線 Data Pipeline
下一篇
《資料與程式碼的交鋒》Day 06-資料倉儲的三層式架構
系列文
資料與程式碼的交鋒 - Data Engineer 與合作夥伴的協奏曲 30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言