> 人工智慧倫理導論 Introduction to Artificial Intelligence Intelligence Ethics
> 個人期末報告 Final Report (Individual)
<!-- > 108502521 -->
> 本篇報告同時存放在 https://hackmd.io/@jcxyisncu1111/S1yk7_lti
# Applying AI on the Battlefeld: The Ethical Debates
<!-- > 在熵吞噬一切之前,我們不應該停止爭鬥 -->
我們身處在一個矛盾的世界。
在這個世界,我們認為生命是無價的,任何人都不能剝奪其他人的生命。然而,每個國家都會訓練一批人,教育他們殺人的技巧。而當一個國家看某一群人不悅時,這群人就會被賦予殺人的權利 (甚至是義務),這就是戰爭。
在戰爭的戰場上,存在著和與和平世界截然不同的道德標準與法律,在這裡,殺戮、致殘、侵占、毀滅都是合理的行為,唯一的目標是看誰先剿滅敵方決策人員、誰先使對方失去戰鬥能力,其餘都只會是實現目標的手段。在人類歷史的數千年中,這條規則引領著世界各地的人們經歷各種統治與朝代的變遷,直到近代,人類的科技水準大幅躍進,在軍事方面開始研製出各式各樣的大規模殺傷性武器,國與國間相互保證毀滅。
為此,國際間制訂了武裝衝突法與相關的禁制法規,列出了開戰的必要性、戰時的最低人道規範與相關武器的禁制準則。然而,隨著科技的持續進步,戰爭的形式也逐漸擴增,從傳統的短兵交接到超視距作戰、太空武裝化乃至網路上的認知作戰。正當國際間還在摸索相關的反制措施時,一個顛覆性的技術突然開始進入世人的眼簾中。
AI 人工智慧的發展使得機器也開始懂得利用人類的思維解決問題,同時具備機器的特性--高精準度、可靠性、可重用性、成本效益等,運用在戰場時代表需要投入的人力更少、能夠集中資源攻擊/保衛特定目標,最棒的是可以用完就丟,沒有後續人道賠償問題,看似百利而無一害,實則隱藏著巨大的隱憂。
## 《Applying AI on the Battlefeld: The Ethical Debate》
在《Applying AI on the Battlefeld: The Ethical Debate》一文鉅細靡遺的介紹 AI 武器 (AI-Based weapons) 在現代戰場上能夠做到的任務,以及它所帶來對於現有道德理論的衝擊與影響。
在開始探討之前,文章首先提到了他對待 AI 觀點與視角:就目前而言,AI 模仿人類的認知能力:思考、感知、學習、推理,而以目前的技術而言,AI 只能解決特定領域的問題,真正的強人工智慧尚未實現 (或者,*「該不該實現」*,這又是另一個議題),就此而言,他認為我們目前應當把 AI 作為一種工具,就算它能夠不經人類的指令而自我學習、自己運行;任何 AI 所做出錯誤的決定應當由提出、設計、運行、管理它的人類所負責。
AI 能擴增我們的認知能力,正如智慧型手機也能擴增我們同樣能力一樣,利用智慧型手機我們的夠快速的獲取到部分知識 (如:天氣、時間),也讓我們與網路的距離更近了些 (可以隨時連上網路搜尋資料)。現在 AI 的出現也是類似這樣的情形,透過我們與 AI 的互動能夠幫助我們進行決策或是提供建議,提高工作效率。
### AI 武器有哪些因素讓軍方積極投入研發
第四次工業革命把智慧傳感、物聯網技術引入了工業與生活,利用各種感測器與機械設備的組合,取代掉原本由人力執行的繁瑣作業,除了工廠老闆可以大幅降低人力成本以外,發生意外的機率 (與發生後的損失) 也大幅降低。運用在軍工業時,無人載具也就應運而生,常在新聞媒體上看到的救災機器人、機器狗都可屬這類範疇,其中發展最好也已經投入實戰的當屬無人航空載具 (UAV),透過各種感測設備回傳指揮中心,由人類進行遠端的操作。因體積小、成本低,在平時常見於情蒐任務,而掛彈 UAV 也在美軍於中東的行動、與近期烏俄戰爭被投入使用。
<!-- {%youtube 0P7AOF-jF9w %} -->
<!--  -->

> WZ-7 UAV RECCE
然而,傳統的 UAV 仍然具有一些缺點:
1. **需大量人力**進行遠端連線與操作 (操作一台無人機的人比操作一台載人飛機還多)
2. 任務地點**需要有通訊網路**覆蓋
3. 人的反應時間加上通訊延遲,造成**反應時間更短**
AI 技術的發展克服了以上三個難點,將 AI 技術套用在每一台出任務的 UAV 上,由 AI 自行判斷飛行方式與手段,達成預先設置的命令需求。如此一來指揮中心只需要做好發射流程,就可以射後不理,坐享其成。有了如此技術,加上 UAV 造價與出任務成本遠低於載人戰機的事實,甚至可以達到「機海戰術」一次發射大量的 UAV,達到打擊敵方勢力的目的。
如果就連指揮單位都換成由 AI 控制呢?文章提到了 "Autonomous" 的定義,一個系統如果能「為了達成目標而自主挑選需要的手段」,則此系統能稱 autonomous;反之,如果這個系統只是「為了達成預先設置的目標」,則這個系統為 non-autonomous。有了這樣的定義,AI 或是機器學習會屬於前者的範疇,這也是 AI 道德爭論的起源。
把 AI 用在戰場上,賦予 AI 致命武器之時,以自動化程度來分類有三種情形:
1. **半自動殺人機器**:這個系統能夠感知外在環境,判斷出敵對目標或行為,但是否下殺人的決策會需要由人決定。在這情形決策的人仍然處於 killing loop 之中 (in the killing loop)。
2. **監督式殺人機器**:這個系統同樣能夠感知外在環境,判斷敵對目標,機器可以選擇殺掉目標,而人具有否決權利。在這情形決策的人處於 killing loop 之上 (on the killing loop)。
3. **全自動殺人機器**:這個系統同樣能夠感知外在環境,判斷敵對目標,機器直接選擇殺掉目標,而人只需負責打開機器開關。在這情形決策的人處於 killing loop 之外 (out of the killing loop)。
這些自動化 AI 技術當然也能用在合乎道德又合乎國際法規與期待的用途,例如將上述「殺人」的行為變更成「治療傷兵、協助後撤」或是「前線偵查」等危險任務。然而,攻相較於守還是更具威懾性,有多少軍力就直接表示在談判桌上有多少籌碼;各國軍隊還是會以發展軍火為第一目標,而非救援設施、後送機制。
這裡根本的問題在於,「我們有可能製造一種機器,其具有明確的內在道德規條並嚴格遵守?」作者先區分機器具有工作道德 (operational morality) 與結構道德 (functional morality):前者是由設計者事先輸入好所有可能發生的道德選項與回應,而後者被賦予衡量與做出道德抉擇的能力。在日常使用且情境單一的場合中,直接將可能會遇到的道德抉擇輸入進機器裡或許是可行的。然而,有許多種自動化機器其可能遇到的情境多元 (例如自駕車的道德議題),使得設計者難以逐一條列道德情境,一旦事件不幸發生,事故責任也很容易遷就於設計者本身,更遑論每個地區的文化背景造成了不一樣的倫理價值。

> [Moral Machine](https://www.moralmachine.net/)
在戰爭上,這個議題更顯重要。戰場的環境遠比平常還要複雜許多,且每一個決策都攸關許多人的性命。在《正義:一場思辨之旅》一書中[塔利班的牧羊人](https://www.booklife.com.tw/baike-detail/3/1647)的例子,在這個情況中,該要確保團隊執行戰術的安全性,還是堅守個人的道德底線?
<!-- 對於投入戰爭的自動化機器而言,當遭遇時友軍、敵人或平民時,三者的對待方式盡不相同。 -->
<!--
1. AI 武器有哪些因素讓軍方積極投入研發
2. 定義 AI 武器的自主程度
3. 該如何把道德規範輸入進 AI 武器裡?
4. AI 武器是否該如何投入實戰的道德辯論
5. 人與 AI 互補協作的戰場
-->
<!-- 理性 -->

> "必須殺死一個無辜的生命才能挽救幾條性命的情境"
### 實作 LAWS 的道德規範
作者認為自主致命武器系統 (LAWS, Lethal Autonomous Weapon Systems) 必須要構建於結構道德,並提出了兩種可能的作法:
**從上而下 (Top-Down)**:把我們平常作出道德判斷的準則 (i.e. 規範倫理學) 化為電腦的演算法,然而就目前而言除了技術實現的難度以外,規範倫理學的不同流派 (同一件事情對於不同主義的解釋乃至抉擇不同)、以及該將如何調整準則的權重 (要把道德看得多重要):如果把道德標準看的很重,則這種道德可能流為工作道德;反之如果不重視道德標準,則機器人毀滅人類便成可能。
換個例子說,艾西莫夫 (Asimov) 提出機器人三定律 (Three Laws of Robotics),其中第一條 *「機器人不得傷害人類,或坐視人類受到傷害」*:在乍看之下,如果我們是 LAWS 的設計者,我們應該會把這條設成必須遵守的鐵律。然而如果這樣設計,那麼在戰場上拿著刀想救治傷兵的醫師也成為了這個 LAWS 的目標,這便是框架問題 (Frame problem):如何確定哪些資訊是有用的,哪些資訊是不必要的;由於人類大腦在解決問題時有很強的過濾能力,因此我們很少會意識到 Frame problem 的存在。但是,當我們試圖讓電腦系統解決問題時,Frame problem 就會顯得非常重要。

> 機器人三定律的順序也非常重要。
> Source: [xkcd - The Three Laws of Robotics](https://xkcd.com/1613/)
而另外一種可能的做法是**從下而上 (Bottom-up)**,透過機器學習等類似的技術模仿人類在形成道德規範的過程,在這裡我們是以「道德規範在參與決策的過程中是隱含的,而非能夠被明確闡述」為出發點。就如同人類在社會化的過程中逐漸學習到美德 (virtue) 的概念。透過這種方式,我們或許能夠釐清機器做出道德判斷的理由,因為它「體會到如何做出正確的反應」。
### 支持與反對 LAWS 的理由
LAWS 的出現引起了普遍關注,因為它們有可能導致武器戰爭的自動化,並且可能會降低對人道主義的尊重,因此引發正反兩面的爭論:除了道德上的激烈辯論以外,許多國家和國際組織都對 LAWS 的使用提出了質疑,並呼籲加強對 LAWS 的管制。

> Stop killer robots
> https://www.stopkillerrobots.org/
#### 支持的論述
支持 LAWS 的人會說,戰爭時多數人都是不理智的,經常被情緒或價值判斷所左右導致判斷的失準,容易錯殺無辜。相較之下,LAWS 不具有任何情緒,它只會依指令去執行想定的任務,再加上先進的感測系統與運算模組,能夠比人類更快做出正確理性的判斷。不僅如此,這些 LAWS 可以被設計成優先保護無辜的人民,避免他們遭受戰爭的波及;另一方面,對於敵人處置,這些機器也可以精確瞄準非致命的部位,能夠在不殺人的前提下使敵方失去戰鬥能力,最重要的,他們本質還是機器,沒有人道的問題,能夠 24 小時隨時帶著大量的重武器、低成本而大陣仗的出擊,何樂不為?

> 空戰遊戲 Ace Combat 7: Skies Unknown 中的無人空中航空母艦「[軍械巨鳥 (Arsenal Bird)](https://youtu.be/obP-ztpRBeI?t=6)」
> 行動由機體上的 AI 系統控制。除了本體的高火力以外也能自主施放高達 80 架的無人機。
#### 反對的論述
而反對者認為,雖然人類士兵比起 LAWS 多了感性這個不確定性,但在戰場上,士兵們面對的挑戰甚至會比預測天氣還要來的更多、更困難,舉凡天氣、風向、敵我陣地與武器系統都要納入考量,而且其中會具有多項參數無法確知,在這種情況下,連超級電腦也難以及時計算出結果。而且,戰場上所要面對的是擁有自我意志的其他代理人,他們也可以在戰術上選擇不同方案。作者以亞里士多德的思想強調,實踐推理只有在正直意志指導下才會成功 (也就是會做出道德上「好」的選擇)。這種既是認知也是情感的能力備稱作 phronesis (拉丁語是 prudentia),結合道德原則、智識、與意志 (will/voluntas),而「機器永遠不可能擁有意志,無法達到 phronesis,因此不能作為一個可信賴的士兵替代品」。
其次,反對者認為情感是組成道德的重要元素之一,有許多影視小說描寫人類士兵基於仁慈的驅使,忽視權威或是上級的命令而向陌生人、甚至是敵方戰鬥人員提供協助,這裡我們暫且不論結果是好是壞,人類有一種特別的能力是能夠察覺什麼時候應該把命令或是手段擱置一邊、做出例外狀況的處理。在一般情況下,不理性的行為會導致不好的結果,但有時也會出現意外。對於一個沒有情感 LAWS 而言,如果其被入侵、被輸入懷有惡意的指令,它將沒有任何內部機制能夠制衡這個操作。

> [聖誕節休戰](https://youtu.be/JBtGltSuwgE),發生於第一次世界大戰期間
> 「至少在天使歌詠之夜,讓槍砲沉默下來」
反對者提出的理由還有人類的尊嚴不能由機器決定,也就是要由人下決定殺人才符合人類的尊嚴。
> 老鼠可以用捕鼠器抓,但人必須被更有尊嚴地對待。但人必須得到更有尊嚴的對待。
> ...機器人在某種程度上就像一個高科技捕鼠器;它不是一個關心人類尊嚴或軍事榮譽的士兵。
> 因此,人類不應該被機器殺死。因為這將是對我們固有尊嚴的侵犯。
> [name=Johnson, A. M., & Axinn, S.]
> [time=2013] from [THE MORALITY OF AUTONOMOUS ROBOTS](https://www.tandfonline.com/doi/abs/10.1080/15027570.2013.818399)
也有人由戰爭中殺人行為的正當性與戰鬥雙方的道德平等性為出發點,討論戰場上人與機器能做出的合理行為,試圖界定可為接受的戰場規則。
> (戰爭中)由於實際的戰鬥是在脫離了實質性的正義的情況下進行的,戰鬥人員對對方部署武力,不是為了仇恨或復仇,甚至不是為了維護正義這樣的崇高目標,而是為了維護個人安全。換句話說,殺人的道德許可不是來自於敵對戰鬥人員的個人道德內疚(畢竟他是出於對他的領導的服從,就像我對我的領導一樣),而是來自於自衛的權利。
> ...但是,如果一方在戰爭時不需為自己的戰鬥人員承擔任何風險,那麼它使用致命武力的道德權利就會被取消。打無風險的戰爭在道義上是沒有道理的。這正是在戰場上引入致命性自主武器系統後出現的情況。
> [name=Riza, M. S]
> [time=2013] from *Killing without heart: Limits on robotic warfare in an age of persistent conflict*
### 技術與務實的考量
在上一部分基本圍繞於對於 LAWS 道德的爭論;而在前面我們也提到過 AI 武器有哪些因素讓軍方積極投入研發,這裡我們快速回顧一下:
- **高精準度**:有能力執行精確打擊,避免誤傷無辜。
- **降低戰爭殘暴性**:對於敵人可針對非致命部位進行打擊,剝奪戰鬥能力而非生命。
- **減少傷員**:士兵不再需要親赴戰場。
- **保衛非戰鬥人員**
- **便宜、人道、隨造即用**,可大量投入。
- **不受地點限制**:空中監視的 UAV、路上行進的機器人、水中執行的無人潛艦,都能透過一個單位指揮執行
然而,這些論點都是基於「樂觀」的想法,也有悲觀派把 LAWS 的出現想得更嚴重:
- **濫用戰爭**:一旦戰爭所要付出的代價變少,在上位的統治者會不會更輕易的將戰爭作為外交籌碼,使世界再次陷入恐怖平衡?
- **不免殺人**:戰爭不可能是乾淨的,隨著戰爭機器的演化,這些設備只會使殺人越來越容易。等到有一個國家真的無視任何國際規條展開大屠殺,屆時將為時以晚,難以反制。
- **難辨敵我**:正如同前面提到過的塔利班牧羊人問題,即使是現代科技也難以辨認誰是敵、誰是友。事貴應機,兵不厭詐。
- **AI 黑盒**:就現今技術而言,AI 是個黑盒子,我們無法得知 AI 是如何得出結果。這種未知性會造成嚴重的隱憂,一旦發現系統的漏洞、或是系統使用錯誤的方法執行指令,後果將難以設想。
- **資安風險**:如果任何人有能力進入相關的系統,那麼他將有能力毀滅整個世界。
- **難以確保道德指令確實執行**:道德建立於文明之上,如果恐怖份子、或是拒絕簽署相關條約的國家掌握了 LAWS 技術,一切皆為空談。
<!--
### AI, LAWS 與人
LAWS 的決策者或使用者應如何準備和訓練在戰場上的行動?
人工智慧迫使我們以一種新的方式提出這些問題,因為人類與 AI 的關係不僅僅是使用者與工具、工具本質上只是使用者意圖的人工延伸;人與 AI 的互動代表了人與非人類系統之間的互動,後者能夠在主動學習的基礎上做出看似優越、至少是自足的自主決定。這類系統的人類使用者應該如何思考他或她相對於這些系統的作用和關係?
為了回答這個問題並確定在人類戰爭實踐中實施人工智慧技術的倫理影響,我們認為必須提出以下進一步的問題,並在本文的結尾嘗試提出這些問題,從而指出我們在軍事環境中對人工智慧與人類相遇的進一步研究方向。首先,哪些具體的人類品質或美德在指導戰略決策以及戰爭中的戰場行動方面仍然至關重要?我們如何才能確保這些品質不會因為使用基於人工智慧的武器系統而被削弱或忽視?或者換句話說,我們如何才能確保人工智慧系統的實施不會導致人類行為者的 "去技能化"?其次,斯多葛派的心態平和、平衡和節制的理想常常被吹捧為一種軍事理想,其基礎是美德倫理傳統(Sherman 2007)。但是,正如上文所暗示的,我們必須問,這種理想在多大程度上否認了情感對於正確道德理解的重要性。人工智慧如何在這場關於情感作用的辯論中發揮作用,比如恐懼、憤怒、不信任、懷疑和悔恨--所有這些情感都與戰爭中的決策有重大關係?人工智慧將如何改變我們理解、欣賞、批判和發展與使用軍事力量相關的情感的方式?第三,在蘇格拉底傳統中,對話被認為是發展美德和正確決策的一個重要前提。在人類與人工智慧的接觸中,會發生什麼樣的對話?基於人工智慧的系統具有顯著的語言和機器學習能力,是真正的、值得信賴的對話夥伴嗎?在描述基於人工智慧的系統和人類操作的系統之間的互動時,"數字雙胞胎 "這個術語被越來越多地使用。這一概念化是否真正抓住了武器系統部署和操作中人與人工智慧相遇的本質?(Kim 2018)。最後,也是最普遍的,在人與人工智慧的力量組合中,哪些美德與人類最相關?這些美德--例如我們假設的溫和、審慎和勇氣--在多大程度上會因為使用基於人工智慧的系統而改變其特性?
-->
## 我的看法
談論了這麼多,其實重點還是圍繞在「戰爭的本質」:我們研發出 LAWS 是為了什麼?是為了增加談判的籌碼?是為了實現兵不血刃的戰爭?還是... 更有效率的殺人?許多事情是一體兩面的,在表象,你可能會看到許多美好的事物,而在事情的反面潛藏著巨大的隱憂,如同潘朵拉的魔盒一般,無論你喜歡與否,它就在那裏,等著下一個發現它的人。
感性的時代已經結束了,理性已經成為這個時代的主宰:
- 從學校,藝術生活之類的課程總是被借去考國英數自,而使得該校的升學成績亮眼;
- 從社會,高薪的職業大多相關於重視理性的理工科系,而文法商的工作內容正逐漸被科技侵蝕;
- 從國家,某些國藉著對領導者的感性崇拜,並以理性而不考慮人道、國際共識的方式制定內政、外交政策,而使該國的國力不容忽視
<!-- 三十六計的計謀多已失效:空城計在現代將化為一串又一串的機率,刻劃出孔明的有勇無謀; -->
理性的極致會長怎麼樣?善於工具理性的自動化 AI 掌管一切,人與人、人與物的相處將只剩下相互算計的價值判斷,人身而只能思考如何將自己能發揮的價值其極大化,客觀數據決定一切,優勝劣敗、優生學、社會達爾文主義復興......。當然,這個論述有明顯被誇大,但是不失為一種未來的可能性,對吧?
討論 LAWS 的道德正當性與建立國際間的相關共識的確有其必要,但是以一個尚未被完整實現的理論技術而言,把一個極具吸引力的全新武器加上諸多限制,又會耗費非常多的開發與研究量能,這樣會有多少勢力願意去遵守呢?我們現今要面對的議題也不僅僅於此,sabotage, espionage, subversion, propaganda, even we don't noticed, we live in the midst of the war.
<!--  -->