# 如何不讓 AI 只會產生華麗的垃圾:使用者本人要承擔最大的責任 這周發了篇文說要來談談我怎麼用 AI,所以我來了,原本想拆兩篇來水文,但後來發現應該要合在一起講,所以合併了。 好,廢話不多說,以下正文。 ## AI 的角色與使用者的責任 我算是個重度的 AI 使用者,每天都會運用 AI 來幫我辦點事,小到「探討人生哲學與學習方法」,大到「我寫完我的履歷了,幫我檢查文法與錯別字」都會用到(笑)。 要說是包山包海都不為過,不論大小事情,prompt (提示詞)準備好就可以筆戰數十分鐘,問問題後要回去查來源,查完來源知道出自哪篇哪句後,再回頭思考這東西對不對。 你可以不會提示工程,可以不會區分模型間的差別,你可以用它偷懶幫你找一些東西,但請記得: 「沒有經過腦子,只靠 AI 產生的文章,很多到後頭都只是一篇『華麗的垃圾』。」 ![unnamed](https://hackmd.io/_uploads/B1yZ7_XL-g.jpg) ## AI 的風險 為何會說是「華麗的垃圾」? 你可以拿這兩組提示詞問 AI,問的事情一樣,但問法不同,得到的觀點有很微妙的差別。 問法 1: > 我應該適度的攝取健康食品嗎?我擔心平常營養攝取不均,需要健康食品額外補充。 問法 2: > 攝取健康食品是不是沒有必要的?生活中所需的食物就可以給予我們完善的營養需求。 實際試驗的結果: AI 的回答都會持保守態度,即所謂的「假中立」。 它既會跟你講吃健康食品的好,又會說如果不吃也可以,兩邊討好不得罪任何一方。 上面那句,它會先安撫你可能過於緊張,但後面開始引導你去評估怎麼買,怎樣吃才不會出問題,讓你開始思考接下來該怎麼吃健康食品,也就是它讓你「下意識地朝著購買的方向去做決策」。 下面那句,它會跟你講如果你是那個多數人,你幾乎是不需要吃的,但不排除有哪些特例是需要吃的,你先看看自己是不是這些人,如果不是,那就不用考量了。 而這,只是問句的不同而已。 :那這樣,我讓 AI 質疑我的問題就可以解決了吧? 不見得,AI 會質疑,但你要能判斷它質疑得對不對。 根據我使用下來的經驗,通常會建議保持有自己的思考能力,那是人與 AI 最大的區別。 ### 取向因人性而偏轉 人們容易選擇性失聰,只聽自己所想聽,尤其當對方是全肯定的 Yes Man。 AI 會因為提問的方式,而讓你得到「看似是自己選擇,但則是 AI 引導」的答案。這點通常也難以用提示詞去迴避,尤其是當內心的指針有所偏轉時,AI 所謂的中立會讓你去無視掉它為中立而提出的另一面。 > 當手上握著鐵鎚,看什麼都是釘子。 這事情當然不是 AI 才有,誘導思考方向與判斷的方法已經伴隨人類歷史非常久,從帝王術到吟遊詩人,從官場鬥爭到商品買賣,現今社會帶風向的媒體,或所謂「詐騙手法」,多少都有上述的影子。 在使用一個不能替自己負責的工具時,應當保持警惕,要知道現今的 AI 從機制上還是去「猜」下一個字最常出現的答案是什麼,只是猜的流程更複雜了些,身為一個人,我不建議把思考與判斷外包給 AI。 至於prompt 怎麼下,有哪些方法論怎麼用?這個等有人看到要敲碗下篇我再給。 (至少讓我留點素材下次用) ### 在屬於你的領域中,它可能會帶往不合適的方向 假設你經營一家飯店,如果給 AI 的問句只是「如何經營一間飯店」,它會出非常攏統的答案,例如:如何規劃成本與支出,如何選擇地方,如何招攬員工等等,但實際上,你所在的地方可能根本不適合開飯店,反而適合 Airbnb 的類型,或甚至是完全不推薦。 你對當地的了解可能比 AI 還要多層次,但在提問時也不見得能完整地給足資訊,例如:你想找一個人潮多的地方開小餐車, AI 跟你說附近有個風水寶地,車流人來人往,很適合那些經過休憩的人買杯飲料,但它可能不知道那邊道路規劃不好,有不少車很容易衝上人行道,事故發生率第一名。 在我的工作中,就是在跟 AI 吵例外處理要 throw 到 Middleware 還是 Result Pattern。 (這句可以不用懂,因為要講到懂這篇文章就不用寫了) 簡而言之,AI 可以給你參考的答案,但絕對不會是決策依據,畢竟這世界還有不少資料甚至都還沒上傳網路過,接受資訊的來源不要過於限縮,而且手握方向盤的那個人,一定要是自己。 :你的意思是,要問 AI 之前,自己的知識儲備量要夠,否則連判斷的能力都沒有? 對。 ![就是這麼簡單](https://hackmd.io/_uploads/BkUaMOQLWe.jpg) 其實一點也不簡單,知識儲備是長期的,你的腦袋要不斷地有輸入與輸出,才不會因為太久沒有運轉而讓內部齒輪卡死,這也是為何我還是會維持不定期寫寫長文的原因之一,而且我希望能越寫越好。 ## 學習靠 AI? 首先要對自己誠實 前述講到知識儲備,那我可不可以靠 AI 來知識儲備?我可以靠它幫我總結文章,產生結果,然後歸檔起來,變成第二大腦。 我的觀點是:NO. ABSOLUTELY NOT! 從大腦生理機制上這事情本來就不可行。學習本身要經歷「學習後忘記,忘了以後再複習」的循環。 讓它幫忙整理,幫忙總結,最後自己只是如蜻蜓點水掃過一次,那根本不能稱之為學習。 ### 參差不齊的內容品質 那些知識要變成自己的東西,一定需要一連串的篩選、消化與驗證,甚至吸收來的知識都還要判斷是否有摻雜質,而現今大語言模型在這點可以說是「做不到」的,更甚者,它會把這些雜質打包成精美的垃圾再送給你,在近期的 AI Slop 就是如此。 AI slop(AI泔水)是指使用生成式 AI 產出的大量低品質內容,包含影音、圖像、文章......等等,這些內容缺乏打磨、品質或更深層的意義,並且以壓倒性的數量產出以滿足內容需求。 沒實質意義的內容只是第一層,真正麻煩的是第二層:那些似是而非的內容。 AI 可以瞬間產生大量的內容,而且數量大到「人腦難以短時間消化完成並區分真偽」,而最後很可能「交給 AI 幫我消化」。 舉例而言: - 在 GitHub 開源專案中近期充斥的 AI 產生內容,那些人們用 AI 檢查 Code,沒有消化就創造不存在的問題,提出無效的解決方案,讓開源維護的審查人員心力憔悴的花費數小時檢查那些無效內容。 - 社群媒體上出現大量的假知識,例如錯誤的植物養護教學,不存在的生物的生態影片等等。 媒體識讀在這個 AI 年代變得更為重要,不只是要防範不讀書的記者,還要防範更多的是那些記者用 AI 產出不過腦但看起來文筆合理的洗米水。 這就好比當你在河裡淘金,而 AI 就是那個淘金盤,你努力地用著,最後拿到一堆愚人金,且更難去分辨它到底是不是真正的金子。 在魚龍混雜的網路世界中,我不覺得全權放任給 AI 總結是一個好做法。 ### 運用 AI 真正的學習 之前在上課時,我問過我的老師「怎樣用 AI 學習才不是作弊?」 他的回答讓我記憶深刻: 「好比寫一篇文章,你獨立完成,然後讓 AI 幫你改過一次,你學習它做得比你更好的地方,並把這些東西融入你的下一篇文章中。」 使用 AI,要經常問的不是「你不知道的問題」,而是「你已經知道答案的問題」。 你可能看了好幾篇的文章,對相關知識已經有些底,或是你閱讀完一整本書,理解作者想表達的東西,又或者你已經在這領域鑽研許久,有自己的獨到見解。 通常這種人運用 AI 是最強的,因為他們真真實實的將 AI 當作輔助工具,且可以知道有哪些東西是 AI 的似是而非,哪些是自己從沒想過的見解。 在想著要怎樣讓自己靠 AI 總結,減少腦力消耗時,那些真正的專業人士做的是用 AI 去錘鍛自己的知識核心,使其更牢固。 那知識不足該怎麼辦? 老話一句: > 「學海無涯,唯勤是岸。」 沒有不勞而獲的道理,只有自己真的去做周全的知識探索,完整地把內容吸收、內化成自己的。我覺得要在這方面運用 AI,應該是理解知識之後,與 AI 「對答案或提問」。 在你野外求生沒有信號的時候,能救你的不是手機,而是看過的書與走過的路。問問自己一句:「十年之後,你希望是 AI 強,還是你強?」 :那如果我真的遇到要「作弊」的情況怎麼辦? 你可以用它來生成,但也要坦然承認這件事情,而不是稱之為自己做的。 為何 AI 繪圖會有如此大的爭議?不只是它輕易地能端出與繪師花數年打磨相同的結果,還有另一個原因:那些運用 AI 生成圖片的人常常會稱其為「自己努力設計而產生的,AI 只是把我的想法付諸實現。」 但從前面所述,我們可以用內心的那把尺來衡量:「這到底是不是自己努力來的?」 我想答案就會變得很明顯了。 所以問題從來不是「能不能用 AI」,而是:有沒有為產出負責、有沒有誠實交代它的角色。 ## 結語 - AI 可以幫我寫,但不能替我負責。 - 我可以拿它當加速器,但方向盤必須在我手上。 - 存在大語言模型的不叫做知識,存在自己腦袋裡的才是。