AI寫出來的東西,未來可能影響我們的認知
AI寫出來的東西越來越像樣,甚至跟真人寫的東西已經難以分辨。這樣的進步當然可以幫人類做很多事情,但在它發展健全之前,我們也要小心一些事情,不要被表面的華麗給蒙蔽了。
我前兩天在《
》電子報中寫了這篇文章:其中分析了一下目前人工智慧(AI)自動產出文章的問題與機會。今天則看到了來自對岸網站《少數派》的報導:
Stack Overflow 禁用 ChatGPT
12 月 5 日,程序員問答社區 Stack Overflow 發佈臨時規定,禁用 ChatGPT 生成答案。主要原因是社區內大量湧入使用 ChatGPT 生成的答案,這些答案雖然看起來合理,但大多數時候是錯的,會對社區造成負面影響。社區表示正式的對策還需要進一步討論,但目前如果用戶發佈了採用 ChatGPT 生成的答案,無論答案是否合理,都將遭到社區處理。
雖然AI現在「很會講話」是一大進步,但如同我先前在文章中擔心的:
AI也有很多很正確、而且令人驚艷的答案,但這種「一本正經、但對錯難辨的不確定性」才是真正的問題所在。
可以想像的是,之後會有許多AI生成的答案充斥問答網站(回答賺點數)、社群網站(廉價帶風向)、甚至媒體(特別是快速產出文章賺點閱的農場),到時候這些表面看不出對錯的文字,就可能搞壞人們的腦袋認知。
至於先前文章中也說過的「真人檢視」和「當責」兩個使用原則,當然就不會在這類文字的考量裡面了;而這些可能就是下一代人每天吃的知識零食、甚至正餐。
當然,真人寫的「對錯難辨文章」也有一樣的問題,不全然是AI的錯;但以AI生成文章的速度、以及連接資料的廣度,都不是幾個埋頭苦幹的真人比得上的。
更重要的是,人的閱讀時間和注意力是有限的;如果閱讀環境中有著大比例的AI文章(因為產生太容易、門檻太低),其他的文章會被輕易的「洗」掉,排擠效果會讓它們的影響力更加明顯。
我一直主張對AI作品必須保留謹慎態度、不要盲目追捧,不是因為輕視它們;相反的,而是因為它們(將會)很厲害。
(當然AI生成文字有很多用處、也有很多優點,我的前文中也有討論到;但比起這些「錦上添花」的優點,在「AI反向事實查核工具」問世之前,我們還是多盡一下人類頭腦的責任比較好。)
前篇:〈身為行銷文案人,AI寫作能幫你做什麼?〉
續篇:〈「專家系統」取代的可能不是專家,而是你〉