- **在生成對抗網路(GANs)中,Discriminator 的作用是什麼?** 判斷輸入數據是真實數據還是生成數據 - **相比於 Faster R-CNN,YOLO 模型在設計上有哪些主要不同?** YOLO 對整個圖像進行單次處理,不使用 Region Proposal Network(RPN)。YOLO 速度更快,但對小物體的檢測準確率相對較低。 - **簡單說明 Faster R-CNN 中新增的 Region Proposal Network (RPN) 的作用** RPN 用於生成高質量的候選區域(Region Proposals),提高了物件偵測的效率並簡化了流程。 - **Autoencoders 的局限有哪些?** 有損性壓縮、數據特定性 - **請簡單說明知識蒸餾(Knowledge Distillation)的核心概念** 將大型模型(教師模型)的知識壓縮到較小的學生模型中。 - **什麼是 APoZ(Average Percentage of Zeros)指標?其高低代表什麼含義?** APoZ 是指神經元經過 Activation function 後輸出為 0 的比例。APoZ 值越高,代表該神經元對最終結果的影響越低。 - **FaceNet 使用哪種損失函數來提升人臉識別的準確性?** 使用 Triplet Loss 最小化相似距離,最大化不同距離 - **比較 CNN 和 Transformer 的主要優勢。** Transformer 在捕捉長距離依賴關係上具有優勢,能夠全球化地關注輸入的特徵。CNN 在局部特徵提取方面高效,計算量較小,適合處理小尺寸圖像。 - **在語義分割任務中,為什麼 IoU(Intersection over Union)比 Pixel Accuracy 更適合作為評估指標?** Pixel Accuracy 容易因背景像素過多而導致高評分,對於少數類別或小物件的預測不敏感,因此不足以全面反映模型的分割能力。 - **為甚麼 GAN 不容易訓練?** GAN 的訓練困難主要有幾個原因,包括達到均衡(Achieving equilibrium)、超參數調整(Hyperparameter tuning)、模式崩潰(Mode Collapse)和非收斂(Non-Convergence) - **請解釋什麼是Post-Training Quantization** Post-Training Quantization 是一種在模型訓練完成後進行優化的技巧,主要透過將模型中的浮點數權重和激活函數轉換為低精度(例如 8-bit 整數)的表現形式,以降低計算需求和存儲空間。 - **生成對抗網路(GANs)的訓練容易遇到模式崩潰(Mode Collapse)的問題。請說明什麼是模式崩潰。** 生成器只學會產生一小部分樣本,缺乏多樣性。 - **請簡單描述 GAN 的訓練流程?** 生成噪音向量、生成假數據、混合數據、訓練辨別器、凍結辨別器 - **Siamese Networks 中的差異層有什麼作用?** 計算嵌入向量間的歐氏或餘弦距離,判斷數據對相似性
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up