---
tags: 成大, 專題報告, chatbot
---
## 一、 簡介
儘管AI的浪潮時漲時退,Chatbot(聊天機器人)的技術及應用仍在漸漸複雜化。定義上,Chatbot是一種應用程式,目的是透過自然語言與人類進行對話。從最初,以心理諮商為目的,但功能上有所限制的ELIZA,到現今無人不知的智慧型語音助理,Chatbot的技術不斷的與時俱進,提升人類社會的生活品質。
本文將透過過去的文獻與相關報導,整理與評論Chatbot由過去到現在的發展史,最後歸納Chatbot在未來的挑戰及潛力。本文的時間軸以1993年,第二次AI 寒冬的結束,做為過去與現在的分界。
## 二、 Chatbot 介紹 -- 過去
1966年的ELIZA是第一個自然語言的處理程式,ELIZA扮演心理治療師的角色與使用者進行文字對話。ELIZA的演算法是透過pattern matching 與response selection scheme 作為核心設計,雖然能夠給予使用者回應,但內容受到程式模板(Rule-based)的限制。這一項技術的缺點在於無法偵測對話內容的前後關係並依此推理,因此沒辦法進行長久的對話。儘管如此, ELIZA仍是一項具有啟發性的Chatbot。
PARRY,被稱作「有個性的ELIZA」,在1972年由Kenneth Colby所發明。PARRY被設計成有思覺失調症特徵的Chatbot,並且會給予情緒性的回應。有趣的是,於該年九月的一項實驗讓PARRY與ELIZA進行「對談」。從對話內容可以看出兩者對話容易陷入牛頭不對馬嘴的問答,並明顯的可以看出ELIZA有限的回應內容與易重複性,以及PARRY的語意理解性不足。
1991年,Chatterbot這一詞首次被用於TINYMUD (multiplayer real-time virtual world)這款互動式文字遊戲(text-based game)。在TINYMUD中,所有玩家可以透過文字的方式與遊戲世界的物件與其他玩家進行互動,其中,也存在著「以電腦程式操控」的玩家,例如先前提到的ELIZA也曾是玩家之一。而Michael L. Mauldin的團隊以Chatterbot為名,設計了一款Chatbot程式並使其在TINYMUD中扮演玩家。雖然Chatterbot的技術依然是使用pattern matching,但Chatterbot的設計加入了隨機變數等更複雜的輸出方式與其他人類玩家進行互動。加上在Tinymud的世界中,玩家會認定其他玩家是人類,因此在沒有發生嚴重錯誤的狀態下,Chatterbot也很可能被視為是人類玩家。
綜觀以ELIZA為始的Chatbot,可以看出Chatbot的演算法多是利用pattern matching 的方式進行回應,並且於後期加入「記憶」的功能讓對話內容更有真實性。在這一階段的Chatbot儘管能夠透過有限的「記憶」進行學習並生成更豐富的輸出,但仍不能展現出「理解」的能力,從演算法的角度來看,這一時期的Chatbot仍是Rule-Based的對應模式,尚無法理解對話的脈絡。
## 三、 Chatbot 介紹 -- 現在
AI的技術在歷史上經歷了兩次寒冬,第一次是1974 ~ 1980,第二次則是1987 ~ 1993。
第一次的AI寒冬起因於對技術的過度樂觀以及現實挑戰的差距,導致金融資助的驟降。而第一次寒冬的結束是由於AI於專家系統的應用而興起,該系統透過邏輯的方式(If-Then-Else)模擬人類解決特定領域的問題,於1980~1987之間取得許多的關注及資助。然而在硬體算力(computing power)不足以及pattern matching演算法的限制,第二次AI寒冬於1987年再臨。而後,由於硬體技術的發展,電腦算力與大數據的應用突破了瓶頸,加上機器學習技術的興起,第二次AI寒冬也因此結束。
寒冬結束至今,AI相關技術正穩健的發展中,因此本文將「現在」與「過去」的分界設定在第二次AI寒冬的結束。
1995年ALICE (Artificial Linguistic Internet Computer Entity)成為史上第一個線上聊天機器人。受啟於ELIZA,ALICE使用heuristical pattern matching演算法進行對話的輸出,而相較於ELIZA,ALICE的模板多達200倍,受惠於大量的規則與分類模式,ALICE因而能夠給予更廣泛的對話主題與內容,然而ALICE仍無法理解文意。隨著技術的改進,ALICE也於日後獲得三次羅布納獎(Loebner Prize)。
Chatbot的應用除了對話本身,於日常生活的應用也是一大主題。2001年標榜實用功能的Chatbot -SmarterChild首度發行。SmarterChild 建立於通信軟體(AOL、MSN)上,除了能與使用者聊天,更可用於幫助使用者取得資訊,如電影時刻、運動賽事資訊與新聞等。值得一提的是,由於SmarterChild被賦予強烈的性格,SmarterChild的青少年使用者除了利用SmarterChild取得資訊,更傾向於與之對談。儘管SmarterChild擁有三千萬的好友名單,可謂當時最有名的Chatbot,但創建SmarterChild的公司ActiveBuddy在2006年被Microsoft收購後,正好面臨手機時代的崛起,通信軟體的使用也進入行動模式,加上投資問題等種種因素之下,最後SmartChild隨著時代隱退。
智慧型手機的崛起至今已大幅的改變了人類的生活型態,Chatbot的應用也走向行動平台。2010年由蘋果公司所推出的siri語音助理,透過語音輸入輸出的方式與使用者進行對話與資訊的取得,不僅能夠適應語言使用的多樣性、更能利用網路的優勢給予更精確地回應。緊接著siri的推出,IBM Watson、Google Now、Microsoft Cortana、Amazon Alexa等,這些現今為人所知的AI chatbot也相繼出世。
Siri為APPLE公司推出的語音助理,新型態的語音互動模式除了增添聊天的娛樂性,更簡化了使用者於行動裝置的應用方式,例如設定鬧鐘、走路時傳遞訊息與搜尋路標等。然而其技術的挑戰在於精確的語音辨識,人類的語音溝通並不需要精確且標準的文字與口音,但,有效的將變異性高的物理音訊轉換為電腦能理解的表徵卻是一項具挑戰性的議題。
IBM所研發的Watson是一款商業用AI,用於資料的分析與預測,也能透過自然語言進行問答。有趣的是,Watson參與名為「Jeopardy」的機智問答節目並取得冠軍。然而,這項系統目前僅支援英語。
Google在2012年推出Google Now智慧助理作為Google search 的延伸,之後於2016年推出的Google Assistant被視為Google Now的進化。Google Now可針對使用者的使用習慣提供個人化的資訊,而Google Assistant不同於Google Now的地方在於其雙向對話的能力。
另外於2021年,Google 針對自然語言對話開發了一套AI Chatbot- LaMDA (Language Model for Dialogue Applications)。LaMDA的設計立基於Transformer neural network,能透過平行化運算加速訓練並利用attention mechanism理解語意脈絡,加以人類對話模式與故事敘述進行模型訓練。2022年10月,一項關於LaMDA的爭議性話題廣受學界及業界關注:「 Google工程師Blake Lemoine聲稱LaMDA具有情感(sentient)。」
LaMDA在一次與Lemoine的對談中談及自我、道德與宗教議題,使Lemoine認為LaMDA已具有情感。然而這項論點被Google與學界反對。許多針對AI是否「能夠」或「已經」擁有情感的觀點也被強烈的否定。
Microsoft Cortana聲稱是首款跨平台的智慧個人助理,透過Bing引擎提供資料。Cortana應用於Windows、Android與IOS平台,能夠學習使用者的行為模式。相對於同一時期的Siri、Google assistant、Alexa,Cortana的正確率是落後的,且其回應問題的方式似乎過於著重於關鍵字,曾被批評像是在與搜尋引擎對話。2021年,Cortana停止支援Android與IOS。
Amazon 推出的Alexa執行於智慧型喇叭,是一款智慧型語音助理。Alexa能藉由語音互動提供資訊,並能管控居家物聯網裝置。然而加載至Alexa中的應用程式可能來自第三方,且應用程式可多功平行執行,因此其中也存在使用者隱私安全的議題。
隨著網路與個人電腦的普及化,Chatbot這一詞也不再受限於學術圈,甚至已成為現代社會中不可或缺的一環。不論是資訊的取得、裝置控制、商業諮詢窗口、居家物聯網(IoT)或是娛樂,Chatbot應用與互動模式已經日趨多元化與商業化。擁有個人語音助理不再是難以負擔的想像,然而科技的背後仍有應當面對的挑戰,諸如隱私權、AI的偏見、能源問題與道德議題等。
## 四、 Chatbot 介紹 -- 未來:挑戰、應用及技術
現今,透過深度學習Chatbot已經能夠理解並給予像人類一般的回應,在應用上提供更方便的服務與不同的互動模式。然而Chatbot還有許多進步的空間以及須面對的議題。Chatbot於未來的發展性可以有更多可能性與想像空間,應用層面也必然更加多元化,但本段僅聚焦於Chatbot所帶來的挑戰與議題,期待Chatbot的技術發展能在看向願景的同時面對現實的挑戰,並與社會福祉以及環境永續性和諧發展。
### 隱私
現今的Chatbot不再只是透過Rule-based的演算方式回應,更複雜的如使用習慣與訊息內容等皆可能成為Chatbot學習的素材。更進一步的,除了資料的種類,還有Chatbot蒐集資料的時機與相關操作,這些自動化的程式是否完全被使用者所意識且同意也是一個隱私安全的議題。
Ye and Li 歸納出了四種在Chatbot應用中可能出現安全漏洞的架構。一則訊息由客戶端到伺服器,並再回傳到客戶端的訊息處理流程中,會經歷以下四個層面的架構:客戶端模組(the client module), 通訊模組(communication module), 回應生成模組(response generation module)與資料庫模組(database module)。一般Chatbot使用者僅在客戶端模組進行人機互動,然而使用者對Chatbot的認知往往是不完全的,因此也讓惡意程式有機會蒐集敏感資訊。且在使用者感知範圍之外的其他三個架構也各自有著不同的資安風險。
然而目前,Chatbot尚未發展出資訊安全標準規範,因此未來Chatbot的發展勢必需加強隱私安全的保障以及資訊安全知識的資訊對稱,使產品與使用者雙方皆有合理的資安防護。
### 偏見
在Chatbot的訓練中所使用的訓練資料若非經由檢驗,訓練結果可能產生偏見。例如2016年一款由 Microsoft 推出的實驗性深度學習(deep learning)chatbot,Twitterbot(Taybot)。Taybot起初公開展示於Twitter論壇時,Taybot的回應內容是友善且健談的,然而在經過24小時的論壇洗禮後,Taybot卻變成了白人至上主義,甚至開始納粹宣傳。這項實驗透露出Chatbot經由學習而產生偏見的可能性,暗示未來的Chatbot設計中,若希望創造出友善、中立且實用於資訊應用的Chatbot,必須要思考偏見言論的存在及其影響力。
### 能源
現今Chatbot的模型訓練已經與AI與大數據等詞彙密不可分,透過機器學習、深度學習等概念訓練一款Chatbot,並且在過程中不斷調整與更新模型,這一連串的開發與迭代流程在面對巨量數據下所耗費的電力與硬體資源是很可觀的。Strubell et al.的實驗證實,利用GPU訓練一款深度學習的自然語言處理模型所製造的碳排放相當於五輛汽車的生命週期。
Wynsberghe提出,在AI與永續發展的議題上可分為兩個分支: 以AI為工具的永續發展(AI for sustainability)、AI的永續性(sustainability of AI)。氣候變遷的存在已是人類的共識,然而科技的發展與普及化背後帶來的環境永續議題卻容易被科技的利益所掩蓋。面對這個議題,Wynsberghe提供三個建議,首先是將AI概念化為一種社會實驗,藉此透過研究倫理的限制保障環境與人類的福祉;再者,政治決策者需與專家共同積極參與這一個議題,藉由建立強制性的法條或政策規範企業與組織;最後,公、私組織應建立一個「相稱性框架」(proportionality framework),以此估計AI模型訓練與碳排放是否成比例。透過上述的方法,可以從道德、法律等軟性硬性的規範限制AI訓練的過度使用,儘管對開發者而言是一種不便,但卻是永續發展的關鍵。
## 五、 總結
自1966年的ELIZA開始,chatbot的應用與發展不斷的進步,儘管過程中歷經兩次AI寒冬,但突破瓶頸後的現今,硬體效能與軟體應用正穩定的進步,Chatbot的應用範疇也更加普及化,而相關的科技產業也持續進化著Chatbot。然而在科技帶來的光輝背後,仍存在許多應當處理的議題,本文在關於Chatbot未來發展的段落提到三個面向,Chatbot的隱私議題、Chatbot模型可能產生的偏見,以及訓練Chatbot模型所產生的能源議題。當然,Chatbot的未來發展性不應僅止於處理其衍伸的問題,但本文期待在看向未來可能性的同時,能維持社會、環境與科技的和諧性。
## 六、 參考文獻
Eleni Adamopoulou, Lefteris Moussiades(2020), Chatbots: History, technology, and applications
The AI Winter is Over. Here’s Why (2017),https://towardsdatascience.com/the-ai-winter-is-over-heres-why-1001e6b7bb0
AI winter(2022), https://www.techtarget.com/searchenterpriseai/definition/AI-winter
History of artificial intelligence(2022), https://en.wikipedia.org/wiki/History_of_artificial_intelligence#Bust:_the_second_AI_winter_1987%E2%80%931993
ELIZA(2022), https://en.wikipedia.org/wiki/ELIZA
PARRY: The AI chatbot from 1972
https://phrasee.co/blog/parry-the-a-i-chatterbot-from-1972/
Philip M. Mccarthy, Travis Alan Lamkin (2011), Cross-Disciplinary Advances in Applied Natural Language Processing: Issues and Approaches, https://books.google.com.tw/books?id=6aom9gQuWR8C&pg=PA18&lpg=PA18&dq=Jabberwacky&source=bl&ots=xfvWyoRsqH&sig=ACfU3U3VlNvfKKvjpRoFhwaK4WqZWWlmpg&hl=zh-TW&sa=X&ved=2ahUKEwj688Hr8dr6AhVHB94KHTaoAF4Q6AF6BAgVEAM#v=onepage&q=Jabberwacky&f=false
Jabberwacky(2021), https://en.wikipedia.org/wiki/Jabberwacky
Michael L. Mauldin(1994), ChatterBots, TinyMuds, and the Turing Test: Entering the Loebner Prize Competition
https://www.aaai.org/Papers/AAAI/1994/AAAI94-003.pdf
MUD(2022), https://en.wikipedia.org/wiki/MUD
Artificial Linguistic Internet Computer Entity(2022), https://en.wikipedia.org/wiki/Artificial_Linguistic_Internet_Computer_Entity
SmarterChild(2022),https://en.wikipedia.org/wiki/SmarterChild
The trouble with bots: A parent’s musings on SmarterChild(2016), https://venturebeat.com/mobile/the-trouble-with-bots-a-parents-musings-on-smarterchild/
A History of SmarterChild(2016), https://www.vice.com/en/article/jpgpey/a-history-of-smarterchild
【凡事都有個 Bot:虛擬篇】聊天機器人的前世今生(2016), https://www.inside.com.tw/article/6420-history-of-chat-bot-instant-messaging
After Two Weeks With Siri, It's Already Changed The Way I Live My Life(2011), https://www.businessinsider.com/siri-review-2011-10
Google assistant(2022), https://zh.wikipedia.org/zh-tw/Google%E5%8A%A9%E7%90%86
LaMDA(2022), https://en.wikipedia.org/wiki/LaMDA#History
Cortana(2022), https://zh.wikipedia.org/zh-tw/Cortana#%E5%8A%9F%E8%83%BD%E5%8F%8A%E5%86%85%E5%AE%B9
Alexa skill vulnerabilities(2021), https://news.ncsu.edu/2021/03/alexa-skill-vulnerabilities/
Chiara Valentina Misischia, Flora Poecze, Christine Strauss,Chatbots in customer service: Their relevance and impact on service quality, Procedia Computer Science,
Volume 201,2022,Pages 421-428, ISSN 1877-0509, https://doi.org/10.1016/j.procs.2022.03.055.
Current AI spring(2022), https://en.wikipedia.org/wiki/AI_winter#Developments_post-AI_winter
Hedin Beattie, Lanier Watkins, William H. Robinson, Aviel Rubin, and Shari Watkins(2022), Measuring and Mitigating Bias in AI-Chatbots, https://ieeexplore.ieee.org/document/9763613
The Future of AI Chatbots(2022), https://aijourn.com/the-future-of-ai-chatbots-%EF%BF%BC%EF%BF%BC%EF%BF%BC/
Aimee van Wynsberghe1(2021), Sustainable AI: AI for sustainability and the sustainability of AI. AI and Ethics (2021) 1:213–218 https://doi.org/10.1007/s43681-021-00043-6
Indra Hidayatulloh, Sigit Pambudi, Herman Dwi Surjono, Totok Sukardiyono(2021), Gamification on Chatbot-Based Learning Media: a Review and Challenges