OPEN AI推出GPT-4 專家建議生成文本仍需查證事實

Image by Alexandra_Koch from Pixabay.

【邱國榮整理報導】OPEN AI於3月14日正式推出GPT-4,透過大量資料訓練,改善原本GPT-3的問題且產生更多創造力,不僅可以解讀圖片,回答問題上也變得更精準。然而仍有不少人對使用人工智慧(AI)語言模型有許多顧慮。如何在現代社會善用工具提升效率,並在使用上兼顧資訊正確?台灣科技媒體中心3月22日邀請專家說明,目前GPT-4在解讀圖片和生成相關文字方面已取得很大進展,但這種技術還存在一些限制和挑戰,例如GPT-4生成文字時可能編造非事實性的回答,這可能會造成誤導和負面影響。

中央大學資訊工程學系教授蔡宗翰提醒,GPT-4生成文字時可能會編造非事實性的回答,可以考慮引入更多事實驗證機制和檢查機制,同時需要給予模型更加高品質的訓練資料。另外,語言模型的訓練資料可能存在一定的模型偏見,例如性別、種族、文化背景等偏見。為解決這個問題,需要更加細緻的調整和訓練模型,同時更加嚴格的審查和檢查模型的輸出結果。

政治大學傳播學院助理教授李怡志說明,若將Google與ChatGPT這兩個角色擬人化,Google是一個圖書館員,它不會告訴你任何東西,只會幫你找東西。ChatGPT是一個會超級多語言的口譯員,它不會幫你找東西,但是很愛幫你「翻譯」或「轉譯」,也很樂於自己補充。簡單來說,前者是用「查」,後者用「翻譯」。李怡志建議,使用 ChatGPT 比較好的方式是讓它好好地翻譯,如果內容有明確的是非對錯,最好不要完全依賴它,但如果答案只有好壞高下,那麼可以練習如何使用它。如果看到一篇文章已經註明利用ChatGPT或人工智慧工具完成或協作,就要假設裡面的事實可能有錯、經過腦補。但假如沒有註明,那就跟平常看到的任何文章一樣,保持注意,保持懷疑,對內容有任何疑慮,就回頭求助圖書館員。

政治大學應用數學系副教授蔡炎龍表示,GPT-4能一次看超過2萬5000個字,其限制最主要來自它其實只是「用前一個字預測下一個字」的模型,依過去訓練的經驗,覺得放哪個字合理,不是真的基於事實。但既然GPT-4最大特點不是說出完全符合真實情況的東西,可以由使用者提供基本資訊,ChatGPT就會幫忙生成相當好的文章,「你可以糾正它,它就會產生更好的文字。」文字生成模型並不是有意識地提供不正確的資訊、刻意假造消息,因此這說不定反而讓眾人更認為堅持把關文字的媒體、出版社或知名人物才值得信賴。但相反地,照片、影片和聲音不會再被認為是「有圖有真相」,人們可能要即早思考如何因應。

台灣師範大學圖書資訊學研究所特聘教授曾元顯則說明,GPT-4的限制跟前一代一樣,仍舊會無中生有、推理錯誤、各種偏見如性別、種族、職業等、不理解訓練資料之後發生的事物(訓練資料只到2021年9月的網路資料),因此使用時仍須小心,必須盡力求證。儘管如此,GPT-4回應事實的能力比其前一代高出40%。

曾元顯補充說明,其實最近有些研究可降低GPT-4對社會的負面衝擊,某種程度上可以偵測人工智慧生成的文句、協助偵測GPT生成的文字,以及協助辨別是否錯用人工智慧文字而有欺騙、造假、不公平的情況等。

廣告/聖經充滿我-經文填充本

我有話要說