SageMaker內建許多機器學習演算法。開始介紹之前,我們先新增一些SageMaker資料處理的背景知識:
針對regression與classification預測的應用場景。
針對regression與classification預測的應用場景。
針對input與output皆是序列的應用場景。例如,中英文字的翻譯、語音轉文字。
針對一維時間序列資料的預測。
把圖像物件轉換成向量。
影像的物件偵測。例如匡選出一張影像內的人臉。
針對影像的類別去預測。
Pixel層級的物件偵測。能針對物件的輪廓去做出識別。
ChatGPT出題時間:
問題1:哪個SageMaker模型特別適合用於時間序列預測,例如股票價格預測或天氣預報?
A) Linear Learner
B) XGBoost
C) Seq2Seq
D) DeepAR
E) BlazingText
答案:D) DeepAR
解釋: DeepAR模型專門設計用於處理時間序列預測問題,它具有遞歸神經網絡(RNN)架構,能夠捕捉時間序列中的複雜模式和趨勢。
問題2:哪個SageMaker模型特別適合用於自然語言處理(NLP)任務,例如文本分類或詞嵌入訓練?
A) Linear Learner
B) XGBoost
C) Seq2Seq
D) DeepAR
E) BlazingText
答案:E) BlazingText
解釋: BlazingText是SageMaker中的NLP模型,支援文本分類、詞嵌入等任務。它基於fastText實現,能夠高效處理文本數據。
問題3:哪個SageMaker模型特別適合用於構建序列到序列(seq2seq)模型,例如機器翻譯或對話生成?
A) Linear Learner
B) XGBoost
C) Seq2Seq
D) DeepAR
E) BlazingText
答案:C) Seq2Seq
解釋: Seq2Seq是SageMaker中的序列到序列模型,專門用於處理序列生成任務,如機器翻譯或對話生成。
問題4:哪個SageMaker模型是一個集成學習(Ensemble Learning)模型,通常用於提高預測性能?
A) Linear Learner
B) XGBoost
C) Seq2Seq
D) DeepAR
E) BlazingText
答案:B) XGBoost
解釋: XGBoost是一個集成學習模型,用於回歸和分類任務,它通常能夠提供優秀的預測性能,特別適合處理結構化數據。
以下是針對Amazon SageMaker中不同模型(Object2V、Object Detection、Image Classification、Semantic Segmentation)的五個選擇題,每個問題都附有答案和解釋:
問題5:哪個SageMaker模型特別適合用於圖像分類,即將圖像分為不同的類別或標籤?
A) Object2V
B) Object Detection
C) Image Classification
D) Semantic Segmentation
答案:C) Image Classification
解釋: Image Classification模型專門用於圖像分類,它可以識別圖像中的對象或場景,並將其分為不同的類別或標籤。
問題6:哪個SageMaker模型特別適合用於檢測圖像中的對象,並標示出對象的位置(通常使用邊界框)?
A) Object2V
B) Object Detection
C) Image Classification
D) Semantic Segmentation
答案:B) Object Detection
解釋: Object Detection模型用於檢測圖像中的對象,並標示出對象的位置,通常使用邊界框來表示對象的位置。
問題7:哪個SageMaker模型特別適合用於將圖像中的每個像素分類為不同的類別,通常用於圖像分割任務?
A) Object2V
B) Object Detection
C) Image Classification
D) Semantic Segmentation
答案:D) Semantic Segmentation
解釋: Semantic Segmentation模型用於將圖像中的每個像素分類為不同的類別,通常用於圖像分割任務,其中每個像素都有其對應的類別標籤。
問題8:哪個SageMaker模型特別適合用於從非結構化文本數據中提取特徵向量,以用於文本相似性分析或檢索任務?
A) Object2V
B) Object Detection
C) Image Classification
D) Semantic Segmentation
答案:A) Object2V
解釋: Object2V模型用於將非結構化文本數據轉換為特徵向量,通常用於文本相似性分析、檢索或其他NLP任務。