# 人智系 ## VR/XR 沉浸式立體串珠教學系統 因為是學姊的組,其實都了解的差不多了,比較多是在詢問最近我們專題在試設備、思考設備選擇或之後專研的問題,像是學姊覺得focus3手勢操作比較方便,xr elite在硬體整合上會花很多時間,學姊覺得很麻煩、不方便。如果要參加資訊展要選只有兩面牆的,因為學姊這次的攤位旁邊就有插座很方便! ## 基於深度學習技術的瓦斯表數字辨識系統開發 利用深度學習影像辨識結合line bot方式進行線上的瓦斯度數辨識,有做到缺字、模糊影像的偵測和要求使用者重新上傳,但我預期在辨識模糊影像的部分可能會有辦法猜測數字可能是什麼,但他們沒有做到模糊影像處理的部分,只有做模糊辨識要求使用者重新上傳,**我覺得或許有機會可以試著用影像處理的方法猜測出模糊影像可能的真實數字**。 ## AI電腦視覺輔助即時車位偵測 使用Yolov8s模型進行辨識,車位的部分是事先架好的,偵測車停哪一格是利用車右下的點x y推算,有開發成安卓、iOS app,使用blender建模(學長覺得比maya方便,渲染器也比較好看,需要下載的資源包也比較小),在開發手機應用程式的時候,安卓開發比較複雜,上架容易;iOS開發簡單,上架困難,剛好是因為組員對開發iOS app有興趣,才有iOS版本(但剛好資訊展第一天他不在,第二天、第三天去他也剛好不在) ## 具有身份辨識之英語會話教育軟體機器人開發 之前跟老師meeting結束的時後有稍微看到這組在練習報告和demo,但那時候還沒有看到機器人的操作,今天去攤位才知道機器人只是可以對他講話他會錄音傳到電腦,電腦回覆的聲音也會透過機器人播放出來,沒有特別注意機器人跟電腦的連接方式是怎麼接的,但我覺得機器人只負責錄音、播放聲音好像有點多餘,==不知道為什麼會想結合機器人?== # 資工系 ## HomeDefender:結合YOLO與OC-SORT實踐異常行為分析功能的社區安全警示系統 稍微看了一下攤位的介紹影片和海報,是透過用戶居架攝影機接上樹莓派連接到後端做影像辨識,再將影像辨識的結果回傳給使用者,使用到的影像辨識模型是Yolov8,可以辨識人的狀態:駐足、徘徊,手持物品:球棍、槍枝、刀,依據每一個物品或人的狀態不同各有不同的分數(pt),當達到使用者設定要通知的分數時,使用者就會在Web或是App收到通知,我有問一下Web是怎麼接上攝影機的,學長說是用Wifi連線,會需要登入和認證,我才想起來對齁認證就可以了!但還是不知道為什麼他們分數的計算是採用只要有出現特定物品就是加上特定分數的方式,我想到的是**或許可以再加入機器學習去分析危險程度**。 ## 深度學習於法院判決書上的重要訊息擷取與預測之研究 這組我沒有從頭開始聽到介紹,但也是我蠻有興趣想知道的組別,去的時候剛好有聽到他們上傳判決書到系統和使用案例描述方式的方法提供資料給系統的部分,他們使用語意分析從用戶上傳的判決書或是提供的案件描述中找到關鍵字詞(中研院的模型),像是判決條例、事情經過、蓄意等等的字詞,再利用深度學習隨機森林的方法提供預測的判決刑期與罰金,並提供依相似度排序10筆的相關案例提供給用戶參考,我覺得這功能是蠻好的,但**有點不知道一開始做這個題目的動機是什麼,怕有有心人用來鑽法律上的漏洞,比起刑法,我覺得民法似乎更需要這種預測系統,但民法牽扯到的關係又更廣了,要做的話感覺會很有難度**。 ## 送餐機器人 之前資工展的時候有特地下去s1看到他們的機器人,那時候只有稍微瞭解了一下是有用到光達和QRCode,這次資訊展才比較完整知道QRCode用在哪裡,他們是把位置座標建在QRCode裡面,掃QRCode機器人就會收到Request就會出發去地點,他們有做防連點的部份,如果兩次送出需求時間距離太短機器人就只會出去一次,光達還有避障礙物的功能,但學長也說了如果目的地有障礙物機器人會找不到一直在附近徘徊。機器人的部分由於是送餐機器人,所以機器人出去一次只會去一個地點,下一個請求要等到機器人回到起始位置才會重新出發,出發順序是依機器人收到請求的順序。 **心得:** 我覺得這組其實做的應該算好,但如果可以讓機器人一次出去來回的路上有停靠點可以順路服務的話,機器人應該會更有效率!比如說:機器人上方的層架有很多層,或許可以一次出去送不只一個桌的餐點,在到達地點時再告知客人的餐點位於哪一層,這樣或許就可以節省機器人回程沒有效率的部分。 # 資管系 ## 過敏識食 主要針對食物過敏的部分,因為找出過敏原的過程通常很漫長,所以想透過使用者日常在APP記錄飲食(可以自己填或是採用拍照上傳影像辨識)的方式,提供醫師診斷治療時可以採用排除法或是從日常飲食中推斷可能過敏原,減少大海撈針漫長尋找過敏原的時間,在醫師端採用網頁形式,可以看見使用者的紀錄和影像照片(原本只有打算用影像辨識去分辨可能食用的食物成份和份量大小,但經由跟醫師溝通後覺得辨識的結果可能不太準確,醫師建議另外直接提供影像讓醫師透過經驗判斷) **建議:** 食物過敏的人可能有很大一部分是一開始就不知道自己會食物過敏,那這樣他就不會使用這個app,在尋找過敏原的時候就自然不會這麼順利,或許可以以記錄飲食,像是健康飲食記錄那類的app為形式,輔以幫助食物過敏過濾的方式去呈現,或許可以讓這個app更有實際價值。 另外,這組在做專研的過程中採用==SCRUM敏捷開發==,配合Azure DevOps執行,聽學長說是因為有一個工作坊讓他們接觸到業界都在用的這個開發流程,但在執行一開始因為沒用過這種流程,所以在建任務區塊的部分就改了三次才定下來,因為這種流程會很仰賴開發經驗,一開始的階段是將要做的任務從大區塊往下延伸各個區塊任務,再慢慢從下面最小單位的任務開始分工執行,過程中透過短時間的Spring會議讓進度推展,但因為組員人數不多所以執行上雖然有分工,但有時候還是會需要cover其他組員的進度,因為每個人自身的能力也不一樣。 **小心得:** 之前大概大一的時候,因為想知道業界狀況所以社群上有開始關注一些做軟體前/後端的工程師帳號,就很常聽到SCRUM和Agile這兩種敏捷開發流程,自己也有好奇上網查過大概知道是怎麼一回事,但對於實際執行上什麼時候適合用這種方式?怎麼知道團隊適不適合這種方式?都沒有想法,也剛好沒遇到身邊大學生專題或是專案採用這兩種方式執行的案例可以參考,所以都處於「我知道,但我不知道實際執行的情況會是怎樣,會出現什麼問題」,直到今天因為資訊展看到他們有特別寫到他們用SCRUM敏捷開發才特別走上去聽他們講解,其實我對於他們用SCRUM比較有興趣呵呵,不過基於禮貌和學長的熱情介紹,我還是很認真的聽他介紹完專題也問了一些問題,但問SCRUM的部分比較多。 ## Moodster 問學長姐訓練模型的部分,他們一開始是拿現成訓練好的模型進行人臉識別訓練,再使用Yolo這類自由度高的模型,最後的成果模型是自己重新開發訓練成的人臉情緒辨識模型,使用Kaggle資料集,可以辨識七種人的情緒,主要用來幫助業者投放廣告成效預估,業者在投放廣告前可以自行找幾位測試者來觀看廣告,透過鏡頭辨識受測者的臉部表情變化提供業者參考自己的廣告是否有達到預期想達成的情緒,Moodster的呈現方式是網頁版,可以在網頁上將辨識結果下載成excel檔,或是在網頁上用篩選條件檢視(在開始辨識前會需要輸入一些基本資料,像是年齡、生理性別等,供業者在分析時可以篩選適合的受測者條件)。 **建議:** 或許可以考慮加入腦波儀偵測,讓辨識結果可以更加準確,或讓可分辨出的情緒更多樣化。 ## Taipei Tour GPT 利用chatGPT Api結合Google maps Api,使用者藉由語音輸入的方式告知需求,後端會將使用者的需求轉換問法串接chatGPT,將chatGPT的回答再透過Google maps Api進行比對和顯示,App開發環境是安卓,可以顯示地圖、新增/刪除景點、更改行程順序、透過語音告知哪一個行程有延誤時間需要更新行程時間、提供景點資訊,目前交通方式只有開車,==不確定有沒有加入路況分析推算行程時間== **建議:** 我覺得都做到了排行程的部分,或許可以再加入導航功能,這樣使用者在前往時就不用再自行一個一個地點另外導航 **小收穫:** 因為有不小心注意到這組指導老師有兩位,就好奇偷偷問為什麼有兩個,學姊才說他們其實是夫妻,他們也有參與資服競賽也有得名,就順便問一下他們覺得準備校內初審、總審跟準備比賽有什麼不一樣,他們是說比賽時報告6分鐘,最後問答的部分是等五位評審都問完一次答,很考驗應對能力,因為要很清楚自己專題擅長的地方與瞬間構思該怎麼回答,但在校內的部分報告10分鐘(對沒錯資管系總審一組只報告10分鐘),因為都是熟悉的教授會比較有一個底他們會比較在意什麼方面,加上資服競賽報告過就會比較熟悉報告的方式,在準備上他們覺得沒什麼差,畢竟他們總審也是差不多報告時間。 聽到他們總審只有十分鐘就忍不住好奇他們總審怎麼審,資管有三個班,會分三間教室進行總審,每一間教室就是固定那些教授,一組10分鐘,不像我們分三間教室教授也要換教室,每組總審還是差不多一個小時的時間,但他們總審過後還會從三間教室中每一間教室分數最高的兩組選出來進行決選再報告一次,選上的就可以來資訊展也會有另外的獎項。我覺得到時候我們如果有要去參加比賽,可能會需要練習很多次和調整的部分是我們報告的內容,要依據規定的時長去做濃縮或調整,找到一個可以展現出我們特色重點但又不會讓人聽下來覺得跳太快或是省略掉重要部分的順序和內容。 # 電工系 ## 物聯網毛孩智慧餵食機 一開始是因為對於毛孩的好奇,加上我知道市面上有不少寵物科技在做這類的東西,所以就好奇去看看,其實聽完介紹會覺得有點失望,我以為會做到很完整有什麼新功能,結果就只有簡單的監視器、定時立即餵食、逗貓的紅外線、自動餵食、溫濕度感測,監視器就是有鏡頭在上面,自動餵食的部分在出飼料口有一個距離感測器用來偵測現在裡面有沒有食物,有的話就不會出飼料,比較不太一樣的是他們把飼料跟水碗放在一起了,也就是說這個餵食機是有接水管的,但是採用循環水源,吸引貓咪喝水的動力(學長是說本來沒想特別做貓或狗,但坐著坐著就變貓適合的了),由於是採用Wi-Fi連線,所以有問一下是不是遠端的方式,因為業界很多都是可以遠端不用連相同網域就可以操控,但學長目前做到的只有同網域才有辦法操控,但如果是連上同網域設定好的自動餵食,離開網域時也會執行,雖然沒有問到連網和如果要做遠端上的困難,但我覺得他們如果還有興趣繼續開發的話,**可以試試看做遠端連線的部分**,跟學長分享Tomofun狗狗攝影機,本來想說這款在全球大賣或許他們也會知道,但沒想到他們不知道,因為我覺得有很多東西他們做的跟這個很像,甚至這個攝影機就有包含這些功能了,只是產品對象是狗不是貓。 ## 基於手臂關節姿態估測之教導型機械人 這攤位一直在抽獎送禮物聚集了一堆竹北高中的學生,想聽他們介紹都沒辦法,只好自己找到空隙靠近海報看一下,抽空趁機問問題,連操作都沒什麼摸到,據了解是透過感測器(一個綠綠的東西忘記型號,不是樹莓派也不是Arduino),藉由把感測器放在人的關節處,感測器就能藉由感測器的偏移得知角度,再透過各個感測器藍牙連接到一個主要負責傳輸各感測器資料到電腦的感測器面板(跟上面的感測器同一個,但本身不拿去作感測而是傳輸),這個負責傳輸的感測器會再透過藍芽把資料傳到電腦,電腦再透過一條長方型的不知道什麼東東看起來也很像開發板之類的,把資料轉格式傳輸到機器手臂,因為機器手臂沒辦法直接使用電腦的USB連接,接下來的目標是可以不要靠電腦主機作為傳輸媒介,希望可以直接用轉換到機器手臂的開發板就能完成這件事,因為傳輸也需要時間。電腦有一個用Spyder建立的GUI介面,也可以直接調整機器手臂的數值。 # 電通系 ## 應用於平板的5G MIMO天線設計與開發 這組很厲害有獲得聯發科的特別獎,在通訊大賽總共獲得兩獎項有12萬元,但其實我真的對天線瞭解很有限,只知道在這學期大葉老師的選修課有學到Wi-Fi使用的技術有哪些,裡面有一個就是MIMO,但我只知道運作原理,不知道他本身長怎樣,所以今天去的時候即便他們有把整個展示品放在展攤我還是不知道在幹嘛,但就簡單的知道他們做到了就算近距離有高強度無線電波干擾下,訊號仍然不會受到影響。 # 其他收穫 - 資訊展最佳人氣獎、最佳服務獎、最佳佈置獎似乎是只要有得到一個獎就會有3000元 - 資訊展各攤位補助金額似乎是看各系不一樣,學姊是說他們只有1300元 - 為了得到投票的獎項,需要累積人脈或是有辦法吸引人幫我們投票! - 現場解說可以視情況調整要介紹的難易度,像是資訊學院的可能就可以講一些比較技術層面,一般人可能就簡單介紹怎麼操作,頂多講幾個專有名詞他可能知道或是可能會有興趣的就好,以免他聽不懂覺得無聊就不投給我們了 - 攤位可以放一些文宣DM,或是舉辦一些小活動,增加互動 - 整個資訊學院好像只有我們系展在資訊展後面🤔我們的總審好像也是最晚的 - 做機器學習、機器手臂、機器人的居多,機器學習又以影像辨識方面特別多 - 資訊展第一天不知道為什麼對於資工系的題目都沒什麼興趣,他們攤位也幾乎沒什麼人停留 - 去毛孩智慧餵食器的攤位時,學長有跟我提到Arduino開發板,之後蠻想修相關選修試試看