iT邦幫忙

2021 iThome 鐵人賽

DAY 18
0
AI & Data

當自然語言處理遇上深度學習系列 第 18

[神經機器翻譯理論與實作] AI也會寫故事?聊聊文本生成吧!

  • 分享至 

  • xImage
  •  

前言

近年來以谷歌的 Google Assistant 、蘋果的 Siri 和微軟的 Cortana 為首的聊天機器人能夠如真人一般與人類進行日常聊天,成為大家所關注的焦點。而甚至有消息指出現在的 AI 技術也能自己寫程式了,究竟 AI 是如何接收資訊並做出決策,產出人類可以識別的自然語言呢?在上回的探討中,我們瞭解到機器翻譯的第二階段就是生成人類可閱讀的文本,於是今天我們就來聊聊機器如何寫文章。

圖片來源:Medium

什麼是文本生成

文本生成( text generation )泛指所有根據輸入資料進而寫出人類可讀的是語句或是文件的過程,又稱為自然語言生成( natural-language generation, NLG )。輸入的資料可以是文本資料、影像資料或聲音訊號等等,而輸出的語句本身因著單詞的多寡與排列會有不同的意義,是一種帶有次序性的資料( sequential data )。模型最終預測出序列出現的機率,因此文本生成是一類序列預測問題( sequence prediction problem )。
文本生成的應用相當廣泛,從先前提過的翻譯器、聊天機器人、能夠根據使用者口語的提問進行精確回答的問答系統( question answering system ,更分為基於聲音或是基於文字的系統)、看圖說故事的圖像描述( image captioning )到自動天氣預報等等。

根據圖像產生情境描述:
https://ithelp.ithome.com.tw/upload/images/20210926/20140744yTzaR9r1l7.jpg

圖片來源:www.tensorflow.org

從文本到文本

在這一小節我們將關注的範圍限縮在輸入文字資料以產生文字資料的過程。一般而言,輸入的文字資料為一個到多個句子,因此可視為文字序列。而輸出的文本按照容易到困難又可以區分為生成一個單獨的字符和生成單詞。

字符級生成( Character-level Generation

當見到一段未完成的文句:「 It's winter and the roa 」,我們也許會猜測下一個出現的字母是 d
我們可以訓練模型一個字母一個字母地預測,直到寫出一個整個句子,被稱為是 character-level text generation

圖片來源:https://houbb.github.io/

單詞級生成( Word-level Generation

當我們看見一段文字:「It's winter and the road is covered with 」,不難會聯想到下一個出現的單詞很可能為snow 。這種給定單詞序列到生成單詞的過程被稱為 word-level text generation 。相較於只預測下一個字符的模型,訓練的時間較久,但是精準度較高。

圖片來源:iq.opengenus.org

結語

今天的介紹比較簡短,也還沒搆著神經網絡的核心,明日再接再厲!/images/emoticon/emoticon08.gif

閱讀更多

  1. A.I. Can Now Write Its Own Computer Code. That’s Good News for Humans.
  2. Text generation with an RNN

上一篇
[神經機器翻譯理論與實作] 這個翻譯不大正經
下一篇
[神經機器翻譯理論與實作] Google Translate的神奇武器- Seq2Seq (I)
系列文
當自然語言處理遇上深度學習33
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言