# Google Responsible Innovation Fellowship 工作坊 筆記 --- ## 破冰與核心心態 > “**You get out what you put in; the more you put in, the more you get out — I’ve seen that *tenfold*.**” * **挑戰自我 & 問對問題**:工作坊鼓勵「really tough questions」以切入議題核心。 * **假設善意 + 承擔行動責任**(assume good intent & take accountability)。 * **Cultural Humility**:包容多元文化脈絡與觀點差異是關鍵領導力。 --- ## 計畫緣起與願景 1. **公平機會**:原初目標是為「*historically excluded*」學生擴大科技職涯管道。 2. **橋接雙向落差** * *技術 ↔ 社科 / 公共政策* * *STEM ↔ Ethics* 3. **共享 AI Principles 框架**:去神祕化、開拓職涯途徑、培育跨域人才 > 講者自述:講者 A 背景是 public policy --- ## 學習成果 & 三日模組 | Day | 主軸 | 重點 | | --------- | ------------------------------------------------------- | ------------------------------------------------------------- | | **Day 1** | Orientation & Moral Imagination | 基礎概念、實作導入 | | **Day 2** | Sociotechnical Harms + 五大 AI Principles Lightning Talks | Social Benefit / Fairness / Privacy / Safety / Accountability | | **Day 3** | 多組 Case Studies | 實戰演練與結業 | > **Learning Outcomes** > ‑ 了解 Google AI Principles 在產品開發中的應用 > ‑ 探討現有與未來 Responsible Innovation 挑戰及因應 > ‑ 建立「社會—技術」雙鏡視角 > ‑ 能以系統化方法評估技術倫理 --- ## Moral Imagination 團隊介紹 | 姓名 | 職稱 | Google 年資 | 專長 | | ----------------- | ------------------------------- | --------- | ------------ | | 講者A McCroskery | ETHICS Partner, Google Research | N/A | 團隊倫理落地 | | 講者B | Ethics & Policy Advisor | \~3 yrs | 法律 / 政策 / 哲學 | | 講者P | AI Ethics Specialist | 5 yrs | AI‑Ethics 諮詢 | | 講者K | Designer → Moral Imagination | 7 yrs | 設計思維 | | 講者D | Scenario Writer (TVC) | 5 yrs | 劇本化情境 | --- ## 工作坊筆記(正文) ### 技術超前法律:Policy Vacuum 的灰色地帶 講師B 用一張雙曲線圖說明「法律落後科技」的現實:自 1990 年代網際網路普及後,舊有法律逐漸跟不上科技的複雜度。如今技術曲線早已高於法律曲線,形成巨大的「灰色區」。在這裡,立法者望塵莫及,企業與個人就必須主動定義行為準則。這正是負責任創新急速冒出的歷史背景──法律規範不足,企業就得自行扛起倫理審查。 ![resize](https://hackmd.io/_uploads/SJi55h0xge.png =70%x) > 科技線像裝了火箭一樣衝上天,而法規這條虛線卻還在悠哉慢跑,雙線正式脫鉤。現在的我們,活在一個「政策真空」裡。而法律部署落後的代價,便是不斷被犧牲的少數人權。[name=蔡秀吉] ## 技術哲學三定律:意圖、世界、關係 接著 講師B 引入三個哲學命題: - 第一「我們造的東西反映我們的意圖」,數百個設計決策背後,皆藏著價值取向; - 第二「我們造的東西改變世界」,從 Time 1 到 Time 2,舊問題解決的同時,必會產生新問題; - 第三「我們造的東西形塑人際關係」,技術不僅是工具,也是媒介,影響資訊流向與人類互動模式。 若不對這三點進行倫理審視,風險終將在產品上線時集中爆發。 ## 四步模型:把倫理鑲進開發流程 為避免「最後一關才審查」的高昂沉沒成本,團隊提出四步: 1. Externalize Intent──在專案 Kickoff 就說清楚「為何要做?」 2. Expand Perspective──透過情境演練找盲點。 3. Evaluate Together──跨域共評新挑戰。 4. Respond──把洞見回饋至下一輪迭代。 講者P 的名言點出核心:「道德想像是感知細節、質疑框架、想像替代未來的能力,而 **『不做』永遠是一種選擇**。」 ## Lightning Talks:五大 AI 原則深描 第二日 Lightning Talks 依序呈現五大原則。 - **社會效益**:Unni Nair 以聯合國 SDGs 篩選技術應用範疇,示例包含利用 Street View 偵測加州易燃植栽、與 NOAA 合作鯨魚保育、用 AI 強化垃圾分類。 - **公平消除偏見**:講師A 說明 ProFair 團隊的四步流程,並舉例 Google Translate 由「He is a doctor」進化為多元代名詞。 - **安全**:講師A 借鏡航太工業,強調安全須「設計時即內建」。他提醒:Facebook 在緬甸的失控與美國醫療成本演算法的歧視,都源於對「社會系統層級」缺乏整體觀。 - **責任歸屬/可解釋性**:講師P 提到 Google 為中學生錄製 13 部 AI 教育影片,並設計自駕車情境案例,讓使用者理解「為何看到這個決策」。 - **隱私**:講師P 以 87 % 美國人可被生日、郵遞區號與性別唯一識別的研究開場,強調隱私權必須「人人皆有,而非付費才能享」。她列出透明度、比例性、使用者控制與保留期限四項設計準則。 ## Harms Exercise:從搜尋偏見到 TikTok 推薦 講師 R 和 講師 E 以 50 分鐘帶領「Harms」練習。暖身活動要求學員分別搜尋 `woman smart`、`man smart` 等詞,觀察 autocomplete 與圖片結果如何放大性別刻板印象。接着解析 TikTok「For You」演算法:為何它根據 watch‑time 建議影片、如何形成過度沉浸及群體誤導。學員在小組討論中,需列出潛在濾泡、上癮、隱私風險等多重傷害,並提出緩解策略。 ## 綜合反思:責任創新的三大啟示 - 第一,倫理必須前移:等到產品完工才檢視,往往為時已晚;意圖外顯與早期對話是降低重工成本的唯一途徑。 - 第二,文化決定產品:團隊價值觀與日常決策直接映射到程式碼與介面上,故培養跨域文化比寫更多守則更有效。 - 第三,實踐工具化:從 SDGs 濾網到 ProFair 測試、從差分隱私到 Explainability 教案,皆證明「負責任創新」不是抽象理論,而是一套隨手可用的方法論庫。 ## 結語:讓更強大的科技,也更值得被信任 當科技曲線持續上揚、法律曲線仍緩步跟進,我們處在一個必須自行訂定準則的時代。RIF 工作坊提示:負責任創新並非「附加功能」,而是一種工程與社會科學密不可分的思維模式。未來的技術領導者──不論你今天是程式設計師、社會學者或公共政策研究者──都得習慣把「更值得信任」的目標,寫進產品 backlog,擺在性能指標之前。唯有如此,科技才可能為人類與地球帶來真正可持續的紅利。 --- ## 建議的後續行動 | 層級 | 行動 | 目的 | | -- | --------------------------------------------------------- | -------- | | 團隊 | 在 sprint 0 即納入 **Externalize‑Expand‑Evaluate‑Respond** 四步 | 減少重工 | | 個人 | 參照 AI Principles 每月做一次自我稽核 | 養成倫理肌肉記憶 | | 組織 | 強化跨域人才管道(社科 ↔ 工程) | 彌補灰色政策真空 | | 社群 | 以 **Open‑Source+Workshop** 形式共享案例 | 擴散多元參與 |