# 事實上 ⋯⋯ 這些事正在發生 我想我們必須承認,生成式 AI 工具正在改變我們工作的方式,也悄悄改變了我們「思考」的方式。 一項來自卡內基美隆大學與微軟合作的研究,調查 319 位知識工作者的使用經驗,發現: 「越信任 AI 的人,越不容易啟動批判性思考,反而可能「照單全收」AI 結果,漸漸失去鍛鍊判斷的機會。」 受訪者中,近六成認為自己「有進行批判性思考」,但實際行為往往只停留在「修改語氣」或「查查看有沒有錯」,深層的邏輯評估與跨資料比對則日漸稀少。 或許,未來批判性思考會變成: 檢查 AI 內容是否為事實 了解 AI 如何得出結論 「有道德」的使用 AI 換句話說,生成式AI不是免思考的萬靈丹,而是需要反思與判斷的合作者。如何在效率與思辨之間找到平衡,是每個 AI 使用者的新課題。 **有哪些 AI 的潛在威脅 ?** * 未經查證帶來的風險 生成式 AI 會有幻覺問題,製造出 「不存在」的資訊。 曾發生法律專業的使用者,因過度信任生成式 AI ,請它協助整理法律判決資料,卻出現虛構判決的現象。 又或是建議程式開發者,下載虛構的程式套件。這些虛構套件容易被惡意開發者鎖定,進一步執行惡意攻擊。 * 資訊安全漏洞 透過生成式 AI 創作的程式碼或是 AI 服務,可能會出現許多漏洞,這使得駭客能夠透過惡意攻擊,侵入服務或讓 AI 執行非預期的指令。 2024 年,北捷AI智慧客服被發現,使用者可以提供程式碼範例,讓客服幫忙寫程式,也就是「提示詞注入」攻擊。 * 資料與隱私權爭議 怎麼經過適當的授權條款,合理使用、收集使用者的資料,是一個「有道德」的AI 該做的事情。X(前 Twitter)平台被指控,未經使用者同意就蒐集貼文與個資訓練生成式 AI。荷蘭、比利時等 8 國已正式提出申訴,認為這違反了歐盟的《一般資料保護規則》(GDPR)。平台雖然更新了隱私政策,卻沒有提供退出機制,但使用者卻幾乎無從得知。