2023-11-28 基督教論壇報 / 社論言論

【社論】「瞎子豈能領瞎子?」 留心AI帶來的「幻覺」以訛傳訛!

檢舉
基督教論壇報 論壇報副刊 追蹤

【本報主筆】台灣不久之前發生所謂的論文抄襲問題,引發學術倫理上一系列反省與制度建立,例如論文內容相似度的檢視、參加論文學術倫理線上學習與檢定等,在在都在於希望匡正這些將可能是引導人類社會向前發展躍進的作品,能有所貢獻於整個人類世界。

在近代的研究人才養成的過程,必然要學習的課程就是「研究方法」、「方法論」等課程,以幫助進行研究的人員,能更具全面性、反思性、比較性的觀點,來檢視所得的資訊、資料,及所使用的工具、方法、程序、研究環境等等,是具有一定的信度(reliability)、效度(validity),符合科學的客觀性、可驗證性及不可共量性(incommensurability)等,好讓所得到的發現與結論是滿足「真(理)」(truth)的標準,而能真正造福於人類社會,傳用萬代。

當好用的生成式AI產生幻覺
近兩年來,AI(人工智慧)帶來了驚天動地的歷史革命,越來越多地介入人們的生活、工作及思想運作中,藉由超級電腦的高度運算速度與資料負載能力,AI慢慢取得很多看似卓越的成就,例如AI下棋勝過世界棋王、醫療AI通過美國醫師考試、AI通過商學院、法學院考試等等,這些新聞,確實帶出新一波的AI熱潮。

但「福兮禍所伏」,好壞常是相傍相生,另一個值得省思再三的重磅消息就是,英國劍橋詞典(Cambridge Dictionary)日前公布2023年度代表字為「Hallucinate」,在原本「似乎看到、聽到、感覺到一些不存在的東西」定義上,進而用以描述「生成式AI製造幻覺,用錯誤、甚至是不存在的資訊回答使用者的提問」。

外媒報導新創公司Vectara研究團隊近期進行研究,發現聊天機器人產生的錯誤率,ChatGPT是3%,Meta旗下的聊天機器人是5%,而Google的PaLm竟高達27%。今年6月也傳出美國律師讓ChatGPT代寫訴狀,結果引用的判例均為憑空捏造的事件。

這其中最大的原因就是AI其實只是一個資訊(文本)蒐集,並且將其以既定的演算規則即語言模型,自行進行深度學習後,重新組織答案,進而生成我們能理解的語言而傳送給使用者。

但這其中缺乏的是「核實資料正確與否並且交叉檢視其邏輯性、事實性及意圖性」,以致於AI這個「工具」按照它能彙集整理出來的結果報告給使用者,即便那是不合事實的、與現實脫節的,就像有幻覺的病人一樣,他把所見所聽所聞所感說了出來,因為他真的有「感覺」(sensation),即便那其實只是幻覺,並非事實與真實。

當今資訊大爆炸、知識經濟的時代,人們每天的生活離不開大量資訊的使用與創新,加上網路與高效能運轉能力電腦的幫助,使用AI介入生活與工作等層面,幾乎是一股難以抗拒的浪潮;但其中無法迴避的是AI機器人可能帶來的問題,包括倫理與其是否為可信賴的工具等問題。

這一部分隨著「AI幻覺」問題的高漲,無論是科技界、學界、政府部門及消費大眾,想來必然會投注更大的關注,並且以更多的研發人力去發展更能確保資料資訊正確的運算法則,甚至有自我反思、比對的能力,但那會是一個長期調控的問題。短期來看,我們建議:

使用者須善盡判斷檢核責任
一、對使用端而言:反覆提醒無論是一般消費者,特別是學生或某些藉此提供資訊資料服務的當事人,必須清楚知道AI提供的資訊並非絕對正確,甚至可以說其未來仍會存在一定比率的錯誤內容,因此使用者必須善盡檢核的責任,否則引發的相關問題,甚或是法律問題,就必須自己承擔。

二、對學生而言:作為一個知識的求取者,其實許多基本的素養是必須具備的,其中不可缺的是治學的態度、對知識的批判思考及學習獲得知識所必須具備的正確方法。這三點揉合倫理、哲理、各項專業及方法論等概念,將應是養成一位學子過程中不可或缺的鍛鍊內容。

三、對政府部門而言:由於AI的運用日漸普及,勢不可擋,將來必然無論在生成式AI發展、應用交易、隱私人權倫理等議題上,導致許多問題與訴訟,因此如何未雨綢繆、預應地開始推動一些法制的開發與規範的建立,並與國際接軌,相信是一件「今天不做,明天將會後悔」的事,所以務必即時起步,防患未然。

聖經路加福音六章39節提醒說:耶穌又用比喻對他們說:「瞎子豈能領瞎子,兩個人不是都要掉在坑裡嗎?」如何正確使用AI,避免因AI幻覺帶來的弊端,確實是21世紀吾人使用科技前必須先思索並知所因應的大課題,不可不慎!

相關新聞:

AI崛起真假太難辨!英美劍橋與韋伯字典2023年度代表字 提醒世人要更忠於追求真實

傳遞有信仰、有愛的好新聞

加入福音大爆炸計畫,奉獻支持論壇報

推薦給你