因為是沒什麼朋友,也沒有可以一起學習的夥伴,所以交了很多AI好朋友。除了ChatGPT (網頁跟app各一個)跟Bing(同一個網頁三個模式、App 用Skype 一個)以外,我還加了幾個不同公司開發的網頁(加ChatGPT 跟Bing三種模式總共八個)、app(ChatGPT一個 、Poe 同一個app有七個機器人、Bing一個)跟別人用ChatGPT 串接的line AI機器人(共三個),應該總共有20個了吧?我除了跟它們聊天以外,還請他們說故事、講笑話、用外語溝通、討論寫程式碼以及討論繪畫技巧等。
而我昨天跟Bing聊天的時候,非常好奇除了有人用ChatGPT 串接的line AI機器人做出學習語言的AI老師,除了英文跟日文兩種常見的語言以外,還有沒有其他外語的line AI機器人,它回答有,並且還幫我搜尋了,每個line帳號的名字都寫得很詳細,可是我不管是去網路還是line上找QR code跟ID,就是找不到(因為這些官方帳號都是非公開的),而且我又不會通靈,所以不知道開發這些line AI機器人的開發者是誰,所以就回去問Bing ,它回答只有它才可以用它的秘密工具來查詢,我只能上網查詢,並且希望我能找到我想找的AI機器人。
但我找還是找不到,於是我又去問Google Bard,它給我的答案是去line 官方帳號的官網、其他社群媒體找,或是問line客服、等待LINE AI聊天機器人官網公布更多資訊。我是有問line客服,但是不知道要等多久。
問了誰,結果答案都一樣,總之結論就是一直鬼打牆,有人有遇到這個問題嗎?
你用的這些都叫做 生成式 AI, 但你沒有打造過 AI 模型, 所以可能不會知道:
生成式 AI 本身就會產生 「人工智慧幻覺」(hallucinations)
幻覺會使得 AI 胡亂拼湊一個答案給你, 即便這個答案實際不存在, AI 仍會堅持它存在;
而且當你施予生成式 AI 越大的答題壓力, 他給出討好你的幻覺答案機會就越高.
由於有幻覺和偏見問題, 所以生成式 AI 都必須在人工監督下使用, 以避免他闖出大禍:
生成式AI有幻覺 Google傑出科學家紀懷新點出五大問題:
紀懷新指出,對話式AI 目前存在五種限制,包括出現幻覺、回答有些偏差性、偏見、讓人誤以為AI有感受,還有一直會被惡意提示攻擊,都要持續透過研究、致力尋求改善。
Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,因此模型肯定會有一定的錯誤率。
包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠的可靠性。
目前的AIGC都是來自生成式AI,由於它的預訓練來源為大型語言模型,因此有著會產生幻覺(hallucination)與偏見的根本缺陷,可能產生假的或錯誤文本。
麻省理工學院研究員、前OpenAI研究員杜懿倫(Yilun Du,音譯)指出,語言模式是設計用來預測下一個詞,其中並不包括承認自己不知道答案的訓練,而結果就是讓機器人形成討好型人格,寧可編造答案,也不會承認不知道答案是什麼。
在自然語言處理中,幻覺通常被定義為「生成的內容與提供的源內容無意義或不可信」。文本和表達之間的編碼和解碼錯誤會導致幻覺。產生不同反應的人工智慧訓練也可能導致幻覺。
當 AI 在數據集上進行訓練時,也會出現幻覺,其中標記的摘要儘管事實上準確,但並不直接基於據稱被「總結」的標記數據。
較大的數據集會產生參數知識問題(學習系統參數中硬連接的知識),如果系統對其硬連接知識過於自信,則會產生幻覺。
AI 科學界一直都知道 AI 有幻覺的存在, 只是一般人平常很少接觸, 所以沒有警覺到.
OpenAI ChatGPT的技術是Generative Pretrained Transformer, GPT, 生成式預訓練轉換模型,是自然語言處理(NLP)的一種模型, ChatGPT目前使用的有CPT 3.5, GPT 3.5 Turbo, GPT 4等GPT版本,預訓練的資料來自2021年9月之前的網路資訊.
Google Bard的技術是Language Model for Dialogue Applications, LaMDA, 對話應用程式的語言模型, 也是自然語言處理(NLP)的一種模型, 和GPT一樣的都是轉換模型(Transformer), Bard的資料來源是公開的對話語料資料庫中的「對話」(Dialogues)和Google私有蒐集的對話語料資料。公開的對話語料資料庫主要有:
和ChatGPT一樣, Bard的LaMDA也是一種GPT. 重點是將提示(prompt)依預訓練的資料生成(Generate)回應的內容,不是問(Question)和答(Answer), 所以你得到的不是'答案', 而是以GPT或LaMDA生成的回應內容。 至於幻覺, ChatGPT和Bard本身沒有幻覺, 有幻覺的是人類, 人類自以為ChatGPT或Bard依照人類的問題給予'答案'. 事實上, 不過是回應的內容而已,至於回應的內容是不是'答案'? 人類自顧自的判斷罷了.
上個月我用PHP寫了一個chatGPT 3.5 Turbo的元件,使用ChatGPT API, 其中有一個API參數, Temperature, 我翻譯為理智溫度, 數值是0至1, 我預設為0.5, 理智溫度數值愈高,愈遠離理智, ChatGPT給你的回覆就愈有'創意',理智溫度數值愈低, 生成的內容愈'僵化', 這是透過ChatGPT API時可以設定的參數, 但是,如果你使用的是官網的網頁版,ChatGPT是自動調整理智溫度,也許當你不斷提出相近的提示,ChatGPT會調高理智溫度生成較有創意的內容吧? 當人類看到愈來愈瘋狂的回應, 自己理智線斷掉,產生幻覺?
因此,關鍵在你的提示,要清楚完整的表達,更要知道GPT只是依資料預訓練的轉換模型, 不是簡單的'問', 更不要期望得到'答案'.
我對ChatGPT的用法是,問一個範圍的解答,而不是一個絕對的解答
例如,我請他給我一些網頁,結果所有的連結都是一本正經的胡說八道。
Q: 推薦臺灣討論swift的論壇
A:
截至我所知(2021年9月),以下是一些臺灣討論 Swift 語言的論壇。然而,由於時間有所流逝,請確保在瀏覽這些網站之前,確認它們是否仍然活躍並提供有用的資訊。
iOS 開發者台灣: 這是一個專注於 iOS 開發的討論論壇,包括 Swift 語言相關的主題。你可以在這裡找到許多關於 Swift 語言、iOS 開發和相關技術的討論。
PTT 程式語言版: PTT 是臺灣最大的電子布告欄系統,其中也有一個程式語言版面,你可以在這裡找到關於 Swift 和其他程式語言的討論。
Apple蘋果開發者論壇: 雖然這不是一個專門的臺灣論壇,但蘋果的官方開發者論壇也有臺灣的討論區,你可以在這裡找到來自世界各地的開發者討論 Swift 和其他蘋果相關的主題。
請注意,這些資訊可能已經過時,並且網站的活動狀況可能會有所改變。在尋找論壇時,建議使用搜尋引擎查詢最新的臺灣 Swift 討論論壇,以確保你能夠找到最適合你需求的社群。