BERT (Bidirectional Encoder Representations from Transformers)
BERT 是一個將文字編譯為向量的預處理模型,常用在語意辨識,文本分類或其他文字相關的模型。
這次來做文字情感分類,會需要用到的有以下兩項
tensorflow 的 bert 範例
https://www.tensorflow.org/text/tutorials/classify_text_with_bert
中文旅館評論
https://www.kaggle.com/quoniammm/chinese-hotel-comment
bert 範例範例中是使用 IMDB 的數據集,但它是英文的,
而明天我們會將訓練的資料集替換成中文,並修改模型種類讓它支援中文。