# AI 決策與人類決策的比較,探討信任度差異 - 侯宗佑 Yoyo Hou {%hackmd 9hvdRpQ_RKecXG9Nl6dTbg?view %} ![CleanShot 2025-05-17 at 00.15.12](https://s.teachifycdn.com/image/width=1920,quality=80/attachment/public_image/747e54e3-4fe6-4d8c-9397-3b1379e9b4f6/93dbaf2b-bbf2-482e-99e7-a1dcb366bdb5.png) 實驗室主要方向:工作環境下如何與機器人互動 如何讓機器人與團體合作,非一對一的互動 只要認為機器人不是人,就一定有事情不能給機器人做 - 小組討論麥克風機器人:逼永不發言的組員發言 - 關鍵價值→ 討人厭的事情就讓機器人做,因為機器人不怕被怨恨 - 我們要相信人給的答案還是AI 給的答案?→ 演算法厭惡 v.s. 演算法欣賞 - 假設:取比較厲害的名字,就會比較容易被信任 - 例如 XX 專家、普通的演算法 - 實驗結果符合假設:重點不是 AI 還是 人,重點是「什麼樣的」AI 與「什麼樣的」人 - AI 只要發生了錯,人就很難再相信 AI → 人對 AI 或工具犯錯的容忍度是很低的 - 專家不相信 AI、不是專家會過度相信 AI ## ~~聊天~~交流區