--- title: 責任創新 tags: GDSC --- # Google 責任創新(Responsible Innovation)工作坊 > [name=蔡秀吉]<br/>[time=Nov 30 2022][color=#F4B400] ## 一、什麼是「負責任創新」? Google 把「負責任創新」定義為: > 在研究到產品開發的整個流程中,**持續加入倫理決策步驟,並主動思考技術對社會及環境的影響**。 跟只做最後審核、事後補救不一樣,這套方法是從一開始就把「可能出問題」的風險點找出來,一路管到底。 ## 二、AI 的五大倫理原則 1. **社會效益(Be Socially Beneficial)**:技術最重要的,不只是賺錢、做廣告,應該是提升大家的福祉。講師 O 分享,他們用聯合國永續發展目標當「濾網」,找到從街景防火檢測到垃圾分類 AI 應用,用技術解決真實社會問題。 2. **公平去除偏見(Avoid Unfair Bias)**:不想把過去的歧視資料「學」到 AI 裡,就要多做對抗性測試。講師 A 舉例,Google Translate 從只能說 “he is a doctor” 改成多重代名詞;人臉辨識也特別針對深色膚色族群做數據補強,降低誤判率。 3. **系統安全(Be Built and Tested for Safety)**:講師 A 強調:安全要從「設計時就有」而不是「上線後才找問題」。借鏡航空、核電的高可靠系統思維,AI 也要在一開始就訂好「邊界」,別等出事才來補漏洞。 4. **可解釋性(Be Built and Trusted for Safety)**:講師 P 說,AI 要像人一樣能解釋「為什麼這樣決定」。不只是設計介面上的「為什麼看到這個推薦?」按鈕,也要做 AI 基礎教育,從小學到高中,讓大家都懂 AI 在背後怎麼運作。 5. **隱私權平等(Privacy Must Be Equally Available)**:隱私不是 VIP 專屬,也不是付費升級才有。講師 P 援引 2019 年《紐約時報》社論:「隱私必須人人可得,不能只給付得起的人。」從分散式學習到隱私保護演算法(聯邦學習),Google 都在努力兼顧安全與公平。 ## 三、從「沒想到」到「大家都能想到」 在以前,當真實案例使開發團隊面臨倫理衝突的問題時,可能會有團隊成員說這是「沒想到的後果」;而 Google 更喜歡說 **「沒一起想到」** —— > **因為你沒有把夠多不同背景、不同利益主體的人拉進來。** 不管是產品設計、程式碼審查,還是專案 kickoff,多和社會學者、法律專家等,不同領域的真正最終使用者一起討論,才能把潛在風險降到最低。 > 同時也可以思考如何讓「公眾參與」(public engagement)納入科技政策流程之中。 ## 課程核心概念 1. **道德想像(Moral Imagination)框架:** 運用道德想像,協助團隊深入思考技術開發過程中的倫理選擇,並評估各種方案對未來社會可能造成的影響。 2. **科技與倫理責任之關聯性:** 科技團隊的內部文化、決策過程及價值觀,直接影響技術產品如何被建造及其對社會產生的最終結果,因此需從開發早期即納入倫理責任的思考。 3. **法律規範與技術創新之落差(Policy Vacuum):** 當技術發展速度超越法律規範時,企業必須自行負起倫理審查與責任,以彌補法律滯後產生的政策真空狀態。 4. **技術的社會技術(Socio-technical)本質:** 技術不僅是工程產物,也塑造人與資訊及社會的互動模式;因此設計過程中須深入思考產品如何影響社會關係、資訊傳遞及使用者的價值觀。 5. **設計意圖(Intent)之重要性:** 科技產品的開發過程包含無數的決策,每項決策反映團隊的潛在意圖;必須審慎檢視這些意圖,避免造成倫理問題及負面影響。 ## 討論環節關鍵議題/問題 1. 如何質疑和挑戰企業或產業在技術開發過程中是否符合倫理標準? > 講師表示這正是目前該工作坊及相關團隊在努力的方向,即協助企業內部工程師培養倫理意識,從而更全面審視並改善自身產品的倫理性。 2. 開放原始碼軟體(Open Source)是否更符合負責任創新的理念,因為其開放性允許多元背景的人參與貢獻? > 講師認為開放原始碼原則上能夠促進多元化參與,更符合負責任創新的理念,但仍需謹慎地評估其實踐時可能面臨的倫理挑戰。 ## 主要結論與共識 * 技術倫理不應侷限於開發流程的最終階段,而應在開發早期即融入團隊日常的工作文化與決策流程中。 * 團隊在評估倫理議題時,應透過道德想像框架進行多維度的討論,以預見和評估技術未來可能產生的影響。 * 技術開發過程必須顧及「設計意圖」與「實際影響」間的關係,以避免解決當下問題卻製造未來新的倫理困境。 * 儘管開放原始碼可能增加參與者的多元性,有助於實踐負責任創新,但並非絕對保證能避免倫理風險。 ### 下一步行動建議: 1. **建立內部倫理討論流程**:在產品設計初期即推動內部定期倫理評估會議,養成團隊持續反思產品倫理影響的習慣。 2. **培養跨領域合作**:鼓勵技術人員與社會科學、政策及倫理專家合作,從而拓展倫理評估視野及增進團隊整體的倫理認知能力。 3. **設計倫理培訓與資源共享機制**:提供明確的倫理評估方法及工具,協助團隊快速而有效地融入倫理考量,減輕對倫理討論的焦慮與排斥。 4. **鼓勵積極質疑和討論文化**:在公司內建立開放且鼓勵討論的環境,使所有成員都能自在地提出倫理相關質疑,並一起探索可行的解決方案。 5. **持續監控**:上線後接手動態監控,透過可解釋工具和用戶反饋,遇到偏差馬上調整。 6. **公開透明**:定期發布透明度報告、Model Card,可解釋性案例,歡迎外部稽核。 ## 結語 無論你是 AI 開發者,抑或是使用者,我們都肩負前所未有的使命:在創造效率紅利、資本價值的同時,也要守住社會底線、尊重人性。Google 的「負責任創新」不是空談,而是一套實戰經驗——把「更聰明」背後,換成「更值得被信任」的 AI 未來,才是真正的致勝關鍵。
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up