OpenAI ChatGPT 黑暗面:思維陷阱與潛在危機

比爾蓋茲(Bill Gates)投資的人工智慧組織 OpenAI(中文暱稱歐本艾),在十一月底公開發行一款人工智慧對話程式「ChatGPT」,在網路上引起很多討論,以及人類對自身被取代的危機感。

ChatGPT只花了5天時間,不靠廣告推廣,不用砸錢行銷,硬生生將註冊用戶數推到了百萬等級,成為一個科技史上的重要指標。

筆者畢竟對人工智慧沒有太多研究,無論是GPT、BERT、PPO、SOTA、訓練、模型等技術特徵對我來說都是陌生的,加上目前OpenAI(歐本艾)並未提出其研究文獻,因此我們便從使用者的角度切入來看 ChatGPT 的能力。

先說結論,ChatGPT 對於既有的專家高手而言,就像一顆健達出奇蛋,新奇好玩又好吃,三個願望一次滿足,可以當作一套支援工作的工具。

但是對剛入門的初學者卻不見得是個好消息。那是一條充滿荊棘的危險道路,很難說ChatGPT擁有的巨量知識是否能讓你成功,但是肯定需要人們加倍注意。因為一個不小心,ChatGPT就是最大的謠言製造機。

ChatGPT可以取代Google搜尋引擎?

先讓我們來問 ChatGPT 一個簡單的歷史問題:「張飛打岳飛是誰贏了?」

看看 ChatGPT 怎麼回答:「張飛和岳飛是三國時期的名將,他們都是劉備的大將。據記載,張飛曾經在戰場上打過岳飛,但是這件事的細節不太清楚。張飛和岳飛最終成為了劉備的重要戰略支柱,為劉備打下了江山。」

???原來張飛跟岳飛還有歷史上隱晦不可告人的打過架啊。

ChatGPT的優缺點

人工智慧的優點在於,它可以處理大量數據,從中找出關鍵詞,配合人類提出的要求重組資訊。減少繁複工序的時間,減少人為錯誤,提高工作效率。

例如用來寫新聞稿就是它的強項。因為新聞稿這種文體其實可以透過公式(或稱範本)產出,只需要提供條例式重點,套入正確的公式,就是一篇看起來有模有樣的稿件了——實際上大多數文書類職業都是這樣做的,不管是新聞記者、律師法官等等,都有自己的範本庫。

但是人工智慧也有最大的一個問題,在於它的答案並不能成為典範,至少目前還不能。

甚至OpenAI自己也知道,所以就會聽到它不斷表示:「自己只是一個大型對話程式,出問題不要怪我,出包自己扛啊……」。

我很喜歡用一個例子,跟朋友說明人類與A.I.間尚存的差異:「人類識流是1234567890, 人工智慧是1Z34SG7B9O。」

我們在探詢知識時,有一個很重要的前提,就是需要獲得一個「完整且實用」的答案。人類在思考時的心智活動,是一種類似由大景邁入細節,再逐一描繪出每個細節間的關係,最後再回到第四面牆後,重新審視整件作品是否完美無缺。

如果我們是用Google搜尋引擎來找答案,每一篇文章,其實已經是人類心智活動下,產出的高完成度作品 —— 內容農場的垃圾文不算。

但是如果用ChatGPT來找答案卻會出現一個問題,它們不在乎自己的答案是否正確跟完美。它們只是正處於收錄資料,以及訓練模型的過程。簡單來講,就是匯集大量文字,再抄襲重組,然後產出一篇類似範本結構的文章。

你如果反覆問它一個問題,甚至可能出現前後相反的結果。而且有很多明顯的小錯誤,不斷出現在它回答的字裡行間裡,例如56沒辦法被7整除。

在特定商業場合使用時,因為可以控制輸入資料的權重比例,人工智慧可以做到很好。但是對於網路上千奇百怪的問題,就會變成像是投機般,只是找出類似的答案給我們。

危險就在這裡,因為在問答過程中已經讓我們的專注力直接陷入細節裡,這對專家來說,還比較容易發現缺少了什麼,再自行補充或整理優先順序關係。

不過有在幫忙修改文章的人一定知道,與其去修改因錯誤脈絡寫成的文章,還不如整段刪掉重新改寫還比較快呢。

而對初學者、學生來說,因為根本無法發現缺少了什麼關鍵重點,也以為自己找到了答案,有可能懶得再去思考,便不去找資料來做反覆確認。這時候就很像程式設計臭蟲(bug),除非你真正執行(考試、提案),否則再也很難發現自己錯了。甚至說不定糾錯的時間,還浪費更多精力。

不過不可否認,現階段人工智慧也只是一個過渡期,它一直在持續的學習進化中,這也是OpenAI(歐本艾)為什麼要免費公開給大家使用的原因,目前我們在上面所做任何問答,都會不斷地成為它茁壯的養分。

我最後又問ChatGPT一個問題:「香油和麻油的差別?」

它回答道:「香油是芝麻油混合香菜油,所以香香的。麻油是芝麻油混合花椒油,所以麻麻的。」

🙄️🙄️🙄️🙄️🙄️🙄️

下次在臉書上,如果看到誰自稱好幾天都沒開過Google。請真摯的考慮那個人畫虎蘭的技術,可能跟AI一樣人工。

參考文獻

  1. 人工智慧 A.I. 認為自己可以完全取代的人類工作

分享您的想法

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *