# 2023/1/6 筆記 ###### tags: `note` `class` > [time=Sat, Jan 7, 2023 9:39 AM] > [color=#fc19cb] > [name=icedpoker][name=張祐端] ## 主題: * 深度學習 * 人工智慧淺談 * 機器學習介紹(regression) * CNN ### 深度學習的tasks * 影像分析 * 應用ex:骨骼分析(醫療用) * 物件辨識 * 匡出照片中的特徵 * 應用ex:腫瘤氣道擴散辨識 * 影像分割 * 圈出輪廓 * 容忍率(到達容忍率即算正確) * 應用ex:腫瘤氣道擴散輪廓分割 需要重複執行,避免有分數過高或過低的可能性,取平均。 台灣論文常常是為了畢業而亂寫數據,可以參考想法,內容方法不可取。 ### AI歷史 1956年:**達特茅斯會議** -- 想使機器能有與人類同等的智力 -->廣義AI(General AI) 但因當時機算機硬體無法支撐general AI所需的運算而不了了之,被視為不可能的任務。 參考:陽明交大電腦博物館 想法: 單層神經元:處理多種可能的輸出,取其最大值 1980年:在執行特定任務上擁有大於人類的智力 -->狹義AI(Narrow AI) -->透過機器學習 **機器學習**:透過演算法分析數據,透過大量的資料集「訓練」機器執行特定任務 (特徵設計與擷取) 更困難的任務?深度學習 2006年GPU被投入運算中,大量矩陣運算的神經網絡模型開始發展機器自行學習 **人工智慧-->機器學習-->深度學習** 傳統機器學習:輸入特徵而非整張圖片,以特徵代表整個圖片,讓模型學習權重 general機器學習 * regression problem 線性回歸 * 預測結果有連續資料 * step 1: set a linear model * y=b+w · x(**內積 dot product**) * y=b+w~1~ · x + w~2~ · x^2^ * step 2: evaluate the goodness of the function * [loss function](https://www.datarobot.com/blog/introduction-to-loss-functions/) * loss(w,b) = Σ (y~n~ - (b + w · x~n~))^2^ * y~n~*: output, y~n~:true answer * 暴力法:兩個變數紀錄最低loss跟(b,w) * step 3: sind the best one * 技巧:微積分 * [梯度下降法](https://chih-sheng-huang821.medium.com/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-%E5%9F%BA%E7%A4%8E%E6%95%B8%E5%AD%B8-%E4%BA%8C-%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95-gradient-descent-406e1fd001f) * x: 輸入資料,y: 輸出資料,b,w: 任意數字(訓練) * x = [x~1~,x~2~,...,x~n~] * x 與 w 皆為矩陣(維度) * b: 偏移值 bias * classification problem 離散,非連續關係,以邊界區分 * clusterning problem 模型依資料特徵自行將資料分成不同組 ### 相關知識尋找 * [medium](https://medium.com/) ### 名詞 * 電腦視覺