---
# System prepended metadata

title: AI 決策與人類決策的比較，探討信任度差異 - 侯宗佑 Yoyo Hou
tags: [25 urmeetup]

---

# AI 決策與人類決策的比較，探討信任度差異 - 侯宗佑 Yoyo Hou

{%hackmd 9hvdRpQ_RKecXG9Nl6dTbg?view %}


![CleanShot 2025-05-17 at 00.15.12](https://s.teachifycdn.com/image/width=1920,quality=80/attachment/public_image/747e54e3-4fe6-4d8c-9397-3b1379e9b4f6/93dbaf2b-bbf2-482e-99e7-a1dcb366bdb5.png)

實驗室主要方向：工作環境下如何與機器人互動
如何讓機器人與團體合作，非一對一的互動

只要認為機器人不是人，就一定有事情不能給機器人做

- 小組討論麥克風機器人：逼永不發言的組員發言

    - 關鍵價值→ 討人厭的事情就讓機器人做，因為機器人不怕被怨恨

- 我們要相信人給的答案還是AI 給的答案？→ 演算法厭惡 v.s. 演算法欣賞

    - 假設：取比較厲害的名字，就會比較容易被信任

    - 例如 XX 專家、普通的演算法

    - 實驗結果符合假設：重點不是 AI 還是 人，重點是「什麼樣的」AI 與「什麼樣的」人 

- AI 只要發生了錯，人就很難再相信 AI → 人對 AI 或工具犯錯的容忍度是很低的

- 專家不相信 AI、不是專家會過度相信 AI 

## ~~聊天~~交流區