MetaAI使用基於文字的 mBART (t-mBART) 預訓練模型作為UnitY模型的第一階段解碼器,且充分利用未標記的文字數據。
過去的機器翻譯模型都是訓練完一種語言,就只能做該語言的翻譯。當要翻譯另外一種語言,就要重新訓練。而mBART模型就可以克服此障礙(YinhanLiu等人, 文獻),mBART是基於BART的預訓練序列對序列的去噪自動編碼器,能夠應用在多種語言(Multilingual)的大規模單語語料庫上。
BART全名為Bidirectional and Auto-Regressive Transformers,意思是顧及上下文且能自動回歸的Transformer。
在這邊想要比較一下相似機器翻譯模型的差異:
SeamlessM4T使用了基於文本的mBART模型作為它第一階段的文本解碼器,而mBART為適合處理多語言(Multilingual)的BART的模型。而GPT、BERT及BART都是基於Transformer發展出來的模型,BART是融合GPT及BERT各自的優點,更能產生符合上下語意的文本。