# 電腦視覺(機器學習、深度學習)-精選 --- ## 目錄 [TOC] --- --- ### 前言: * 數學基礎 ``` 線性代數、梯度下降跟機率統計 ``` * 機器學習基礎 請參閱==李弘毅教授的機器學習中文課程==: [影片](https://www.youtube.com/playlist?list=PLJV_el3uVTsPy9oCRY30oBPNLCo89yu49) * 電腦視覺課程 請參閱==魏家博教授的電腦視覺中文課程==: [影片](https://sites.google.com/view/nsysu-dvlab/courses/computer-vision-2021) * 電腦視覺的任務: ![](https://i.imgur.com/M2JLI2n.png) --- ### (精選)電腦視覺-深度學習網路: ``` 影像分類: VGG家族, ResNet家族(成功加深網路), Inception, DenseNet, CSPNet 人臉偵測: Cascade CNN, MTCNN, FaceNet, RetinaFace 物件偵測: FPN, R-CNN家族, SSD(DSSD,FSSD,RefineDet), YOLO家族(v1-v4、PP YOLOv1-v2), Transformer(原用在NLP), YOLOR 影像分割-語意分割: FCN(語意分割的始祖), SegNet 影像分割-實例分割: MaskRCNN, UNet, PANet, YOLACT家族(YOLACT++、YolactEdge) 影像搜索: Triplet Network, Margin based Network 影像產生: VAE, GAN, Neural style transfer ``` ### 深度學習的基礎: * 可以參閱史丹佛大學的cs231n電腦視覺課程 (bilibili上面有翻譯版) ``` Regularization Normalization Optimization Activation Function Loss Function ``` ### NLP自然語言處理基礎了解: ``` RNN: NLP的始祖 LSTM:第一個改良型RNN Seq2seq: 把encoder-decoder用於機械翻譯 ConvS2S: 將CNN引入到Seq2Seq中,為平行運算的一維卷積 Transformer(BERT): encoder 與 decoder 兩端都先跑 Self-Attention的QKV ```