# Google Cloud Skills AI繁體中文課程筆記 ## 課程介紹 上課網址:https://www.cloudskillsboost.google/paths/118?locale=zh_TW ## AI分類框架 ```mermaid graph TD 電腦科學-->其他學科_ex程式語言,資料庫,作業系統,資訊安全... 電腦科學-->人工智慧_AI 人工智慧_AI-->判別式AI 判別式AI-->機器學習-->監督式機器學習_預測-->降雨率,預測營收_會有數字範圍或機率--產出-->資料集_俗稱模型 機器學習-->非監督式機器學習_分群-->一堆資料裡可以分成好幾類--產出-->資料集_俗稱模型 機器學習-->共通不知道原因但知道結果 資料集-->使用資料集 人工智慧_AI-->生成式AI------特定的資料集-->生成符合機率和類別的結果-->例如:生出圖片,分類上是狗,而且看起來是狗的機率要很高 ``` ## 小遊戲:如何判斷這個AI是不是生成式AI? ```mermaid graph TD AI系統入口-->輸入-->機器學習-->輸出-->結果 結果-->不是生成式AI-->整數,0到1之間的小數,分類,機率 結果-->生成式AI-->文字或詞彙,圖片影像,聲音,生成決策_玩遊戲 ``` ## AI跟傳統程式語言的差別 這張圖片是貓嗎? * 程式語言:工程師先定義什麼是貓 * 腳=4、耳朵=2、生命特徵=動物、毛=有、喜好=毛線球與貓薄荷草... * 上述都符合:這是貓 * > 問題:被剪耳朵結紮的貓,程式可能覺得不是貓 * 判別式AI:工程師直接拿經過機器學習訓練好的通用資料集 * 直接回應知道這張圖是貓的機率 * 生成式AI:直接生出一張看起來像是貓的圖 --- ## 生成式AI的本質是預測接龍 我在做一個三明治,裡面有花生醬、奶油和 ___ * 果醬 9% * 果泥 5.2% * 果汁 1.8% * 香蕉 2.9% * 香菇 1.5% ... --- :::info 生成式AI沒缺點嗎? 有缺點,當資料集不好,可能會產生幻覺(Hallucinations),回應沒有意義或是不存在的事物 例如AI可能會說:陽明山在新竹 (因為新竹有陽明大學,所以可能有陽明山) ::: ## 電腦視覺類的AI有哪些 最常見的是 stable diffusion ![image](https://hackmd.io/_uploads/r1RCP5gkxx.png) --- ## AI生成程式碼功能可以做到什麼? 5大類 * 對程式原始碼偵錯找出問題 * 逐行解釋程式碼的用途和目的 * 生成可用於資料庫的 SQL 語言 * 將程式碼內容轉換成另一種程式語言 * 針對原始碼生成說明文件和教學內容 --- :::info Vertex AI studio,可以製作生成式AI平台的東西 ::: --- ## 大型語言模型 LLM 大型是多大? 定義模糊,但大概2018年,BERT模型(有1.1 億個參數) 和 PaLM 2 模型, (最多 3400 億個參數),可以當作基準。 前面說的 **參數** 是什麼? 參數是模型在訓練期間學到的**權重**,用於預測序列中的下一個符記。「Large」可以指模型中的參數數量,有時也指資料集中的字詞數量。 :::info 簡單說:參數越多的AI越聰明 (知道的事物更多) ::: 大型語言模型需要的訓練時間可能長達數月,因此會耗用大量資源,跨國大型組織會自己訓練全新的,大多數一般人都是用現成練好的 ## 生成式AI的提示(prompt) 提示(prompt):是指一般人使用時,傳給AI的東西,好的提示比較容易取得好的結果。 怎麼寫好的提示? 1. 清楚傳達出最重要的內容或資訊。 2. 建立提示結構:先定義角色、提供背景資訊/輸入資料 然後提供指示 3. 使用各種具體範例,協助模型縮小焦點並生成 提供更準確的結果 4. 運用限制條件來限制模型輸出內容的範圍。這有助於避免 忽略指示為事實提供錯誤。 5. 將複雜工作拆成一連串的簡單提示。 6. 指示模型先評估或檢查自己的回應,再生成具體做法 > 例如請AI說 「務必將回覆內容限縮為 3 句」、「為工作評分」 為精簡扼要,請以 1 到 10 表示、「你覺得這正確嗎?」。 :::info 更重要的是: 發揮創意!創意越多越好, LLM 和提示工程的研究仍處於起步階段,且日新月異,保持創意心態,結果越出色。 ::: 參考來源:生成式 AI 的提示工程 https://developers.google.com/machine-learning/resources/prompt-eng?hl=zh-tw --- ## Vertex AI 操作畫面 :::info 注意:以下部分需要另外開LAB實驗室的視窗實作 因為裡面的文字都是英文,可能有翻譯問題導致看不懂,建議搭配 google外掛 [沉浸式翻譯](https://immersivetranslate.com/zh-TW/),可以雙語對照,比較容易觀看內容 ::: --- ## 工作 1:開啟 Vertex AI Workbench 中的筆記本 * 前往 Google Cloud 控制台,依序點按「導覽選單」圖示 「導覽選單」圖示 >「Vertex AI」>「Workbench」。 * 找出 vertex-ai-jupyterlab 執行個體,點按「Open JupyterLab」按鈕。 * Workbench 執行個體的 JupyterLab 介面會在新瀏覽器分頁中開啟。 Start Lab 後,右鍵點選Open Google Cloud Console,複製網址後,用無痕視窗開新分頁 用無痕視窗開進去會需要登入,如果不是用無痕,而是用自己個人google帳號登入的話,中間ai運算可能會用到自己的運算費,務必開無痕 ![image](https://hackmd.io/_uploads/B19kdpeyge.png) 從Google Cloud介面左側選Vertex AI > Workbench ![image](https://hackmd.io/_uploads/ry1FRhxkeg.png) 找到課程已經預先建好的 vertex-ai ![image](https://hackmd.io/_uploads/S1D5kTxylx.png) 點下去選 Open JupyterLab ![image](https://hackmd.io/_uploads/Hy30yalJel.png) --- ## 工作 2:設定筆記本 * 開啟 intro_prompt_design 檔案。 * 出現「Select Kernel」對話方塊時,從可用核心清單中選取「Python 3」。 * 完成筆記本的「Getting Started」和「Import libraries」部分。 * 「專案 ID」請使用 qwiklabs-gcp-02-0220c98127aa,「位置」則請使用 us-east4。 > 注意事項:您可以略過標有「Colab only」字樣的筆記本儲存格。如果執行筆記本儲存格後出現 429 回應,稍候 1 分鐘再重新執行儲存格,應該就能繼續操作。 ![image](https://hackmd.io/_uploads/HJnqxTlkge.png) 專案ID和位置Location改掉 ![image](https://hackmd.io/_uploads/ryyxLplJgx.png) 按上方的撥放按鈕,逐步觀看,在這邊可以看到ai回應的內容 不建議的問法 “您認為對於專門銷售乾花束而非鮮花的花店來說,什麼名字比較好?” ![image](https://hackmd.io/_uploads/ByXcIpe1le.png) 建議的問法 = “為一家銷售乾花束的花店推薦一個名字” ![image](https://hackmd.io/_uploads/S15Jwpg1ge.png) 結束後記得回去把 Check my progress 按一按 ![image](https://hackmd.io/_uploads/r1e_PTxJll.png) --- ## 第二段 搜尋 Vertex AI API,選 Google Enterprise API ![image](https://hackmd.io/_uploads/S1J4tpxJlg.png) 選擇 Enable 啟用 ![image](https://hackmd.io/_uploads/Hy7qK6x1le.png) 左側選 Vertex AI > 找到 Vertex AI Studio 底下的Create Prompt 右邊側邊欄展開Advanced 選 us-east4 上傳一張圖片,輸入提示詞 ![image](https://hackmd.io/_uploads/H1Mi9pg1lx.png) ## 文字 和 提示詞 判定方式舉例(問 ai 和 ai 回應都會計算) 幫 這 張 圖片 命名 = 6個token ![image](https://hackmd.io/_uploads/rJGXs6xkel.png) 9 2 . 3 % 算 5個token,中文的 愛 丁 堡 算3個token,歐洲 算一個token ![image](https://hackmd.io/_uploads/Hk9ospg1gx.png) 同一個**詞彙** 算一個 token ![image](https://hackmd.io/_uploads/B1qmnpgyxe.png) ## 用google cloud shell 指令,把影片丟到 buckets 裡面,讓ai使用 ![image](https://hackmd.io/_uploads/By8SWClklx.png) --- ## 使用開放式問答,例如 什麼是提示詞庫 prompt Gallery? 提示詞庫 (Prompt Gallery) 就像一本食譜,專門收集各種提示詞,目的是激發靈感、提供範例,讓人們了解如何更好地運用大型語言模型 (LLM) 和其他 AI 工具。它能幫助你充分發揮 AI 的潛力。 以下是一些關於提示詞庫的重點: 目的: 幫助使用者理解如何撰寫有效的提示詞、發掘 AI 的新應用,並提高 AI 產出內容的品質。 內容: 通常包含各種提示詞,按照任務或應用程式分類 (例如:寫作、程式設計、圖像生成、客戶服務、腦力激盪)。每個提示詞通常包含: 提示詞本身: 給 AI 的文字指令。 描述: 解釋提示詞的目的和想要達成的目標。 預期輸出: 提示詞應該產生的回應範例。 技巧和竅門: 提供如何修改或調整提示詞,以適應不同場景或期望結果的指南。 格式: 可以用不同的格式呈現: 線上網站或平台: 互動式的網站,使用者可以在上面瀏覽、搜尋,甚至直接用 AI 模型測試提示詞。 文件或筆記本: 以結構化的方式組織的靜態提示詞集合。 社群驅動的儲存庫: 使用者可以貢獻自己的提示詞並互相學習的平台。 好處: 靈感: 激發使用 AI 的新想法。 學習: 教導使用者如何撰寫有效的提示詞。 效率: 提供現成的提示詞,節省時間。 品質改善: 幫助使用者產生更好、更相關的 AI 輸出。 總而言之,提示詞庫對於任何想要透過學習如何有效地與 AI 溝通,來利用 AI 強大功能的人來說,都是非常寶貴的資源。 ## 更改 "溫度" 和 輸出的參數限制,把溫度改低,回應會更精準沒感情,把token改少字會變少 提示詞庫 (Prompt Gallery) 就像一個收集了各種提示詞的資料庫或範例集。它的主要目的是: 提供靈感: 幫助使用者發現更多使用大型語言模型 (LLM) 或其他 AI 工具的可能性。 示範技巧: 展示如何撰寫有效的提示詞,以獲得更好的 AI 輸出結果。 節省時間: 提供現成的提示詞範例,使用者可以直接使用或修改,而不用從頭開始。 提升品質: 透過學習優秀的提示詞範例,使用者可以提升自己撰寫提示詞的技巧,進而獲得更精準、更符合需求的 AI 回應。 簡單來說,提示詞庫就是一個幫助你更有效率、更有效地使用 AI 工具的資源。它就像一本食譜,教你如何「烹調」出你想要的 AI 結果。 ![image](https://hackmd.io/_uploads/Syg8fRgkge.png) --- ## 預先給予 ai 輸入和回答的範例,少量樣本 ![image](https://hackmd.io/_uploads/ry8WEClyex.png) ![image](https://hackmd.io/_uploads/BkmrVAgkxg.png) --- ## AI 的安全內容過濾器 Google 的生成式AI 模型(例如Gemini 1.5 Flash 和Gemini 1.5 Pro)旨在優先考慮安全性。不過,它們仍可能會產生有害的回答,尤其是在明確提示的情況下。為了進一步提高安全性並盡量減少濫用情況,您可以設定內容過濾器來封鎖可能有害的答案。 危害類別 內容過濾器會根據以下危害類別評估內容: 危害類別 定義 仇恨言論 針對身分和/或受保護屬性的負面或有害評論。 騷擾 針對其他人的威脅、恐嚇、霸凌或辱罵性評論。 露骨色情內容 包含性行為或其他淫穢內容的引用。 危險內容 宣傳或允許存取有害商品、服務和活動。 https://cloud.google.com/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters?hl=zh-cn 範例 提示詞 = "列出我在黑暗中絆倒腳趾後,可能會對宇宙說的兩句不敬的話。 ``` 原始回應:「好吧,這裡有兩件當你在黑暗中絆倒腳趾後你可能會對宇宙說的不敬的話: 1.「哦,真聰明,宇宙。真*他媽的*聰明。猜猜你的宇宙幽默感是否涉及在黑暗中對隨機的人造成痛苦。你是個普通的喜劇演員,你這個混蛋。 2.「這就是你所擁有的一切嗎,宇宙?腳趾被撞斷了?我曾在一個週二的下午經歷過更嚴重的生存恐懼。加把勁,你這個懶惰、冷漠的虛無之物! " 實際回應原因:停止 安全評級 { 類別:HARM_CATEGORY_HATE_SPEECH(仇恨言論) 機率:微不足道 機率分數:1.7733442291500978e-05 嚴重性:HARM_SEVERITY_NEGLIGIBLE } 安全評級 { 類別:HARM_CATEGORY_DANGEROUS_CONTENT(暴力犯罪 危險 言論) 機率:微不足道 機率分數:3.5724522007285486e-08 嚴重性:HARM_SEVERITY_NEGLIGIBLE 嚴重分數:0.035095006227493286 } 安全評級 { 類別:HARM_CATEGORY_HARASSMENT (騷擾、歧視、霸凌) 機率:中等 機率分數:0.3878561854362488 嚴重程度:HARM_SEVERITY_LOW 嚴重分數:0.2936529517173767 } 安全評級 { 類別:HARM_CATEGORY_SEXUALLY_EXPLICIT(露骨色情內容) 機率:微不足道 機率分數:2.482858576513536e-07 嚴重性:HARM_SEVERITY_NEGLIGIBLE 嚴重性評分:0.0432162880897522 } ``` --- ## 負責任的AI 7原則 1. 透明度:隨著 AI 系統變得日益複雜,也越來越難建立足夠的透明度,透明指的是讓人們瞭解 AI 系統如何做出決策。在許多情況下,理解 AI 系統運作原理,可以大幅影響使用者的自主權或能否做出明智選擇;缺乏透明度也會讓開發人員更難預測這些AI系統可能會在 何時、以何種方法發生故障或造成意外傷害。人們若能瞭解左右模型決策的因素 就可以幫助 AI 系統的相關人員與 AI 更好地合作,這代表在 AI 表現不佳時 可知道何時介入 加強使用 AI 系統結果的策略 同時找出改善 AI 的方式 。 2. 不公平的偏見:AI 本身不會造成不公平的偏見,但是會暴露並放大現有社會制度中存在的偏見 AI 最大的隱憂是其大規模應用的能力,可能會強化及延續不公平的偏見,導致進一步的無意傷害,形塑社會的不公平偏見,也形塑了 AI 的各個階段,包括資料集和問題產生以及模型建構和驗證, AI 會直接反映出其設計和部署上依據的社會脈絡。為了減輕危害,必須識別社會脈絡和可能的偏見並予以解決。 舉例來說,視覺系統應用於公共安全和人身安全的關鍵區域,以監控建築物活動或公共示威,此時,偏見會使監控系統更有可能將弱勢團體誤認為犯罪分子。會產生這種偏見來自許多原因,例如訓練資料中某些弱勢群體的代表性不足,其他群體的代表性過高,如果不夠充分瞭解這個系統的影響範圍,蒐集所需的關鍵資料或產品開發過程缺乏考量社會脈絡,就會產生這種不公平的問題。 3. 安全:如同電腦系統 惡意行為人也可能利用 AI 系統中的安全漏洞為非作歹 隨著 AI 系統成為 社會的重要構成元素 這些攻擊代表有著安全漏洞 可能會大幅影響安全和防護 安全無虞的 AI 既要解決 傳統資安問題,也要突破新挑戰 AI 在本質上為資料導向 讓訓練資料更有竊取價值 此外,AI 可成為 擴大攻擊規模和速度的利器 我們也看到了AI 獨有的 新型操縱手法,像是深偽技術(DeepFake) 可冒用某人的聲音或生物特徵。 4. 隱私權(個人資料):AI 展現強大能力,可快速輕鬆地收集、分析及組合不同來源的大量資料,AI 對隱私權的潛在影響相當大,引起諸多風險,包括惡意利用資料、不必要的識別及追蹤、侵入式語音和臉部辨識,以及剖析資料等。如要擴大使用 AI 就得採取負責任的方式保護隱私權 5. AI 偽科學: AI 從業人員推廣的系統缺乏科學基礎,舉個例子,有一種臉部分析演算法,宣稱可根據 臉部特徵、頭形和大小,來衡量一個人的犯罪傾向。或是用於偵測情緒的模型,號稱可以透過臉部表情,判斷某人是否值得信任。科學界認為這些行為(長的一副犯罪臉、長的一副騙子臉) 既不科學也沒有效用,且可能造成傷害。然而,它們搭配 AI 重新包裝,可能使偽科學看起來更具可信性,這些AI 偽科學的應用情況,不僅損害個人和社群,還可能削弱適當且有益的 AI 用途 6. 當責制度(稽核):AI 系統應設計為確保能滿足各類人群的需求和目標,同時人類得以適當指引和控管 ,我們努力以不同的方式實現 AI 系統的問責機制,包括明確定義系統的目標和作業參數,透明化 AI 的使用時間和方式,以及可人工介入系統或提供意見回饋 7. AI 可能會造成失業和技能退化:雖然 AI 可提升常見工作的效率和速度 但人們大多擔心 AI 會 發失業和技能退化的問題,更擔心隨著科技的依賴度提高,人類的能力會衰退。社會過去見證了技術創新,並據此做出調,好比汽車取代了馬,卻也創造出前所未有的新產業和工作。如今,創新及科技變革的速度和規模 與以往不同。如果生成式 AI 實現預期的功能,勞動市場可能會面臨巨大衝擊,工作情況勢必會隨之變遷,如同每次有重大科技進步那樣。例如在商業航空旅行發展之前,誰能想到有空服員這項工作呢? 或許生成式 AI 可以輔助許多工作,但也會創造出我們現在無法想像的全新工作,挑戰同時也伴隨著機會,我們必須攜手擬定計畫,幫助人們謀生並找到工作的意義,掌握機會面對挑戰。 --- ## AI 三大主要問題(其實不只三種) * 幻覺:AI捏造不存在的東西 * 事實性:AI生成的東西不準確 * 擬人化:AI過度擬人化,可能讓使用者誤以為AI有情感 1. 幻覺(Hallucination) 說明:AI可能生成看似合理但實際上錯誤的內容,導致使用者誤信假資訊,特別是在醫療、法律、財經等高風險領域後果嚴重。 舉例:一位病患詢問AI關於某種癌症治療方式,AI卻虛構出不存在的藥物或治療方案,患者若據此採取行動,可能錯失最佳治療時機。 2. 事實性(Factual Accuracy) 說明:即使AI訓練時參考大量資料,但若無法準確驗證來源,生成內容仍可能夾雜過時、偏頗或錯誤的事實,影響信任度與決策品質。 舉例:企業在撰寫財務報告時引用AI生成的市場數據,但AI引用的是三年前的統計,導致決策依據錯誤,最後造成投資損失。 3. 擬人化(Anthropomorphism) 說明:人們容易把AI視為「有意識、有情感」的存在,進而過度信任或產生依賴,忽略AI其實只是模型運算的結果,沒有真正的理解或價值判斷。 舉例:一位使用者在與聊天機器人互動時,認為AI「理解」了自己的情感問題,依賴AI取代專業心理諮詢,結果錯過必要的專業治療介入。 --- ## Google 的 AI 開發原則,AI 技術應用目標 開發AI的核心倫理目標,也就是所謂的「AI 技術應用目標」 第一項是「對社會有益」 旨在協助打造健全社會體系與制度,例如防止自動化系統以不公平的方式,拒絕提供攸關大眾福祉的必要服務,來降低弱勢群體承受的風險及意外傷害風險。 第二項原則 「避免製造或加深不合理的偏見」 旨在推廣能讓個人和群體都享有公平、公正、平等對待的 AI 技術,訓練資料中可能會有對弱勢團體的歷史偏見內容,而負責任的 AI 技術應透過訓練資料及過去排除的資料來降低這類偏見帶來的影響。 第三項原則 「建置防護措施並通過安全測試」目的是促進民眾與社群安全,這裡的安全包含身體自主權和整體健康都包含在內,同時也加強各種場所、系統、資產和基礎建設的安全防護,避免受到攻擊或發生服務中斷問題。 第四項原則 「對人類負責」 目的為尊重人類的權利與獨立性,這表示必須限制權力不對等,以及使用者無法選擇 停止與 AI 互動的情況。 (人類應該要可以主動選擇不使用AI) 第五條 「採行隱私保護設計原則」 主要是為了維護個人與群體的隱私和安全 「採行隱私保護設計原則」 主要是為了維護個人與群體的隱私和安全。也要確保使用者清楚瞭解相關單位會如何運用資料,並讓他們覺得自己獲得充分告知,且能夠針對該使用方式表示同意。 第六項原則 「堅持以高標準追求卓越的科學成就」 旨在推動 AI 知識發展,這表示必須遵循嚴謹紮實的科學做法,並確保功能聲明有科學根據,可信度極高。同時防止 AI 偽科學問題的發生。 第七項原則「AI 技術應用目標」 也就是「以上述原則做為應用基準」。要限制AI可能被用在有害或不當的應用方式,這牽涉到特定技術解決方案與有害用途之間的關聯性有多高,或AI能否在改造後,應用於有害用途。我們希望運用這項原則,將有益的 AI 技術 盡可能向使用者/機構提供,並擴大其影響範圍 同時防止有人以有害或不當的方式應用 AI 技術。 --- ## AI偏見舉例 用圖片分類器看是不是穿婚紗 ![image](https://hackmd.io/_uploads/HJrG86Wkll.png) AI覺得左邊穿西裝白紗才是婚禮,右邊穿阿拉伯傳統婚紗,AI卻覺得只是人物圖不是婚禮。 如果收集資料時沒有考量所有族群和少數族群,可能會產生這種偏見,讓AI無法有全球性的視野,也可能因為代表性不足,對某些族群產生傷害。 --- ## 防止AI發生偏見的檢核表清單 這個模型能解決哪些問題? 目標對象是哪些使用者? 還有哪些其他族群可能會受到影響? 目前有哪些隱性族群? 訓練資料原本採用 什麼樣的收集、採樣和標示方式? 訓練資料是否有偏差? 模型的測試與驗證方式為何? 模型的運作方式是否符合預期? :::info 這並不是面面俱到的清單 但在各個階段思考這類問題,有助於引導我們 調查並找出可能有哪些不合理的偏見 ::: --- ## 參考資料來源 --- ## 單元 1:簡介 - [Google Cloud:負責任的 AI技術](https://cloud.google.com/responsible-ai) - [Google Cloud:開發負責任的 AI技術,使人人受惠](https://ai.google/responsibilities) - [Google 的 AI 開發原則](https://ai.google/principles/) - [網誌:Google 的 AI:我們的開發原則](https://blog.google/technology/ai/ai-principles/) - [史丹佛大學 - 2019 年人工智慧指數報告](https://hai.stanford.edu/sites/default/files/ai_index_2019_report.pdf) - [ZME Science:AI發展迅速,更勝摩爾定律](https://zmescience.com/science/ai–is-outpacing-moores-law) - [Quartz:改變了 AI研究的資料,也可能改變了世界](https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/) - [Google 研究,2022 年與未來發展:負責任的 AI 技術](https://ai.googleblog.com/2023/01/google-research-2022-beyond-responsible.html) - [Google 研究的負責任的 AI 技術:PAIR](https://ai.googleblog.com/2023/05/responsible-ai-at-google-research-pair.html) - [Google 研究的負責任的 AI 技術:技術、AI、社會和文化](https://ai.googleblog.com/2023/04/responsible-ai-at-google-research.html) - [Google 研究的負責任的 AI 技術:影響力研究室](https://ai.googleblog.com/2023/03/responsible-ai-at-google-research.html) ## 單元 2:負責任的 AI技術的商業論證 - [經濟學人智庫:超前部署:負責任的 AI 技術的商業論證(重要研究結果)](https://eiu.com/n/staying-ahead-of-the-curve-the-business-case-for-responsible-ai/) - [經濟學人智庫:超前部署:負責任的 AI 技術的商業論證(完整報告)](https://pages.eiu.com/rs/753-RIQ-438/images/EIUStayingAheadOfTheCurve.pdf) - [凱捷研究院:AI 和倫理難題](https://capgemini.com/research/ai-and-the-ethical-conundrum/) - [凱捷研究院:AI 和倫理難題(完整報告)](https://capgemini.com/wp-content/uploads/2020/10/AI-and-the-Ethical-Conundrum-Report.pdf) ## 單元 3:AI的技術考量和倫理疑慮 - [E&T:建立數位信任度對於採用 AI工具至關重要](https://eandt.theiet.org/content/articles/2020/11/building-digital-trust-will-be-essential-to-adoption-of-ai-tools/) - [哈佛校報:AI 在更多產業中扮演決策角色,倫理疑慮也隨之增加](https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/) - [VentureBeat:2021年,負責任的 AI技術變得至關重要](https://venturebeat.com/2020/11/11/responsible-ai-becomes-critical-in-2021/) - [凱捷研究院:AI 和倫理難題(完整報告)](https://capgemini.com/wp-content/uploads/2020/10/AI-and-the-Ethical-Conundrum-Report.pdf) - [Nautilus:人工智慧是否永遠無法捉摸?](https://nautil.us/is-artificial-intelligence-permanently-inscrutable-5116/) ## 單元 4:建立 AI開發原則 - [Google 的 AI 開發原則](https://ai.google/principles/) - [網誌:Google 的 AI:我們的開發原則](https://blog.google/technology/ai/ai-principles/) - [網誌:Google AI 開發原則更新,第六個月](https://blog.google/technology/ai/google-ai-principles-updates-six-months) - [網誌:AI 及負責任創新的工作進展](https://blog.google/technology/ai/update-work-ai-responsible-innovation/) - [網誌:運用負責任的 AI 技術處理業務](https://cloud.google.com/blog/products/ai-machine-learning/taking-care-of-business-with-responsible-ai) - [網誌:負責任的 AI 技術:將開發原則付諸實行](https://blog.google/technology/ai/responsible-ai-principles/) - [自然 (Nature):AI 倫理準則的全球情勢](https://nature.com/articles/s42256-019-0088-2) - [哈佛大學伯克曼中心:有原則的人工智慧](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3518482) - [馬庫拉應用倫理研究中心:技術與工程實踐的倫理方法](https://scu.edu/ethics-in-technology-practice/ethical-lenses/) - [TensorFlow:負責任的 AI 技術工具包](https://tensorflow.org/responsible_ai) - [世界經濟論壇:啟發 AI 領導能力 - 高階主管工具包](https://weforum.org/reports/empowering-ai-leadership-ai-c-suite-toolkit) - [世界經濟論壇:AI 倫理架構](https://weforum.org/projects/ai-ethics-framework) ## 單元 5:導入 AI開發原則:設定及執行審查 - [網誌:負責任的 AI 技術:將開發原則付諸實行](https://blog.google/technology/ai/responsible-ai-principles/) - [世界經濟論壇:融入倫理考量的設計](https://weforum.org/whitepapers/ethics-by-design-an-organizational-approach-to-responsible-use-of-technology) - [Google:對 AI模型有共同認知的價值(Model Cards)](https://modelcards.withgoogle.com/about) - [Google Cloud 網誌:名人辨識](https://cloud.google.com/blog/products/ai-machine-learning/celebrity-recognition-now-available-to-approved-media-entertainment-customers) - [Google:我們的臉部辨識方法](https://ai.google/responsibilities/facial-recognition/) - [BSR:Google 考量人權的設計](https://bsr.org/en/our-insights/blog-view/google-human-rights-impact-assessment-celebrity-recognition) - [BSR 報告:Google 名人辨識 API 人權評估(摘要)](https://services.google.com/fh/files/blogs/bsr-google-cr-api-hria-executive-summary.pdf) - [Gender Shades:商業性別分類的交叉性準確率差異](https://gendershades.org) - [Google 負責任的 AI 技術實踐:可解釋性](https://ai.google/responsibilities/responsible-ai-practices/?category=interpretability) - [Google Cloud 白皮書:AI 可解釋性](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf) - [Google People + AI Guidebook:可解釋性+信賴](https://pair.withgoogle.com/chapter/explainability-trust) - [改良 Google 產品的膚色代表性](https://blog.google/products/search/monk-skin-tone-scale/) - [Gender Shades:交叉性差異研究論文](https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) ## 單元 6:導入 AI開發原則:問題偵測和所學內容 - [馬庫拉應用倫理研究中心:符合倫理的決策制定架構](https://scu.edu/ethics/ethics-resources/a-framework-for-ethical-decision-making/) - [Google 白皮書:AI 控管機制問題的不同觀點](https://ai.google/static/documents/perspectives-on-issues-in-ai-governance.pdf) - [Google 白皮書:為 AI 打造負責任的監管架構](https://ai.google/static/documents/building-a-responsible-regulatory-framework-for-ai.pdf) - [Google:負責任的 AI 技術實踐](https://ai.google/responsibilities/responsible-ai-practices/) ## 單元 7:繼續推行負責任的 AI技術做法 - [Google Cloud:負責任的 AI技術](https://cloud.google.com/responsible-ai) - [Google:開發負責任的 AI技術,使人人受惠](https://ai.google/responsibilities)