# 模擬考題設定說明 * 題型為單選題,每題附有正確答案與簡要解析。 * 題目涵蓋範圍包括:基礎理論、架構設計/部署技術、提示工程、NVIDIA 生態工具、模型評估與資料處理等。 * 題目設計參考 HackMD 文件和先前整理的重點名詞。 --- ## 模擬考題(共 50 題) ### 1–10:基礎與架構 1. Transformer 模型中使用的 Layer Normalization 的主要功能是? A. 提高訓練速度 B. 穩定訓練過程、避免梯度消失/爆炸 C. 降低參數量 D. 增加模型層數 **正確答案:** B 2. 下列何者最能避免 CNN 模型過擬合? A. 增加參數量 B. 使用 Flatten Layer C. 採用 Dropout D. 減少 Batch Size **正確答案:** C 3. 「Frozen Layers」在遷移學習中常用於? A. 加快訓練速度 B. 避免破壞預訓練權重 C. 提高模型大小 D. 測試模型 **正確答案:** B 4. Self-Attention 的作用是? A. 捕捉序列元素間的依賴性 B. 縮短訓練時間 C. 減少序列長度 D. 防止梯度爆炸 **正確答案:** A 5. Seq2Seq 結構常用於? A. 情感分析 B. 文本摘要或翻譯 C. 實體辨識 D. 分類任務 **正確答案:** B 6. 多頭注意力(Multi-Head Attention)能帶來? A. 多模態融合 B. 提升表達能力並並行注意力 C. 壓縮模型大小 D. 延長輸入序列 **正確答案:** B 7. Transformer 中加入位置編碼 (Positional Encoding) 是為了? A. 提示模型學習時間特性 B. 保留序列順序資訊 C. 降低記憶體使用 D. 強化分類 **正確答案:** B 8. 使用 BERT 做 Masked LM 的目的是? A. 預測下一個字詞 B. 還原被遮蔽詞 C. 分類文本 D. 生成摘要 **正確答案:** B 9. GAN 是 Generative Adversarial Network 的簡稱,其架構包含: A. Encoder 和 Decoder B. Generator 和 Discriminator C. Classifier 和 Regressor D. Encoder 和 Attention **正確答案:** B 10. Gradient Descent 的作用是? A. 優化模型架構 B. 更新模型權重,最小化損失函數 C. 平行化訓練 D. 增加模型容量 **正確答案:** B --- ### 11–20:自然語言與提示工程 11. Few-Shot Learning 表示? A. 完全不需要示例 B. 使用少量示例進行學習 C. 使用大量示例做微調 D. 不需要預訓練 **正確答案:** B 12. Prompt Engineering 的用途是? A. 優化 GPU 計算 B. 設計提示以引導模型產出 C. 壓縮模型 D. 增加訓練數據 **正確答案:** B 13. RAG 的全名為 Retrieval-Augmented Generation,其功能是? A. 利用生成資料做檢索 B. 結合對外檢索與生成能力 C. 僅生成文本 D. 僅尋找資料庫文章 **正確答案:** B 14. Chain-of-Thought 提示設計能有效讓模型? A. 生成段落摘要 B. 逐步推理而非直接給答案 C. 學習語言結構 D. 提升訓練速度 **正確答案:** B 15. System Prompt 通常用於? A. 控制模型推理流程 B. 控制整體角色與行為 C. 設定學習率 D. 控制 GPU 使用率 **正確答案:** B 16. Top-p (Nucleus Sampling) 的作用為? A. 限制隨機性 B. 只從累積機率前 p% 選-token C. 增加生成長度 D. 生成更多文本 **正確答案:** B 17. Temperature 在生成任務中調整模型輸出時用於? A. 減少模型大小 B. 控制隨機性 C. 優化推論速度 D. 增加訓練次數 **正確答案:** B 18. Zero-Shot Learning 是指模型? A. 不需示例即可執行新任務 B. 使用少量示例學習 C. 訓練時無資料 D. 無法預測 **正確答案:** A 19. Hallucination 是 LLM 生成中的? A. 真實可信輸出 B. 與事實不符的內容 C. 高精度生成 D. 沒有結論的輸出 **正確答案:** B 20. Alignment 在 LLM 上一般指? A. 模型內部層對齊 B. 符合人類期待行為 C. 模型輸出格式 D. 計算資源分配 **正確答案:** B --- ### 21–30:NVIDIA 工具與部署 21. cuDF 類似於? A. NumPy B. Pandas(GPU 加速版) C. Matplotlib D. PyTorch **正確答案:** B 22. cuML 是用於? A. 數據可視化 B. GPU 加速的機器學習函式庫 C. 模型儲存 D. 語音處理 **正確答案:** B 23. Dask-cuDF 支援? A. CPU 分散式計算 B. 多 GPU 分散式資料處理 C. 單機 CPU 優化 D. 模型調優 **正確答案:** B 24. TensorRT-LLM 的主要功能是? A. 優化 inferenece,降低延遲 B. 訓練 LLM C. 儲存模型 D. 評估模型 **正確答案:** A 25. Triton Inference Server 用於? A. 訓練 B. 模型服務部署與併發推論 C. 資料增強 D. 模型壓縮 **正確答案:** B 26. NeMo 是 NVIDIA 提供的? A. 視覺框架 B. 語音/NLP 框架 C. 資料庫 D. 部署工具 **正確答案:** B 27. NIM (Inference Microservices) 的用途? A. 支援模型本地 API 呼叫與託管 B. 訓練模型 C. 調參工具 D. 可視化工具 **正確答案:** A 28. LangChain 是? A. 模型壓縮工具 B. LLM 編排與代理框架 C. GPU 管理工具 D. 語料庫 **正確答案:** B 29. LCEL 是其中語法語言,用於? A. 定義模型啟動流程 B. 串接 Prompt Chains C. 儲存模型 D. 語料清理 **正確答案:** B 30. Pydantic 常用於? A. 評估模型準確度 B. 定義與驗證結構化輸出(如 JSON Schema) C. 訓練圖 D. 模型部署 **正確答案:** B --- ### 31–40:資料處理與評估 31. cuXfilter 用於? A. 資料清理 B. GPU 加速的互動式視覺化 C. 模型訓練 D. 模型推論 **正確答案:** B 32. BLEU score 常用於評估? A. 文本分類準確度 B. 機器翻譯正確性 C. 圖像生成品質 D. 分群結果 **正確答案:** B 33. ROUGE 指標主要評估? A. 情感分析結果 B. 摘要生成的召回率 C. 寫作風格 D. 準確率 **正確答案:** B 34. t-SNE 用於? A. 類別預測 B. 高維資料降維視覺化 C. 模型訓練 D. 評估指標 **正確答案:** B 35. Cross Validation 好處在於? A. 提高模型速度 B. 提高評估穩健性 C. 減少訓練資料 D. 增加批次大小 **正確答案:** B 36. Quantization 是什麼? A. 增加模型容量 B. 降低模型精度以提升效能 C. 增加參數量 D. 增加精度 **正確答案:** B 37. A/B Testing 的設計用於? A. 測試兩模型推論效果比較 B. 壓縮模型 C. 增加數據量 D. 降低延遲 **正確答案:** A 38. Precision 用於? A. 分群效果評估 B. 真陽性比率 C. 文本摘要評估 D. 視覺化 **正確答案:** B 39. Recall 代表? A. 所有預測中正確比例 B. 真實正例被模型找出比例 C. 平均值 D. 最大值 **正確答案:** B 40. F1 Score 是? A. Precision × Recall B. Precision 與 Recall 的調和平均 C. 最大值 D. 損失函式 **正確答案:** B --- ### 41–50:綜合應用與部署實務 41. 使用 Mixed-Precision Training 好處是? A. 提升記憶體用量 B. 加速訓練且降低資源消耗 C. 增加訓練時間 D. 提升模型準確性 **正確答案:** B 42. NVLink 在多 GPU 訓練時有何效益? A. 減少延遲 B. 提供高速 GPU 間連接 C. 增加模型大小 D. 優化記憶體分配 **正確答案:** B 43. Tensor Cores 的功能是? A. 處理圖像渲染 B. 加速矩陣運算 C. 處理文本分類 D. 管理資料讀寫 **正確答案:** B 44. GPT 類模型屬於哪種語言模型? A. Encoder-Decoder B. Decoder-only 自迴歸模型 C. Bidirectional MLM D. Hybrid 模型 **正確答案:** B 45. T5 模型使用哪種架構? A. Decoder-only B. Seq2Seq Encoder-Decoder C. MLP D. RNN **正確答案:** B 46. 多模態模型可處理哪些資料類型? A. 文本 only B. 圖像, 文字, 音訊等多種形式 C. 結構化資料 only D. 時間序列 only **正確答案:** B 47. 模型部署成微服務(Microservice)好處是? A. 隨需擴展、易管理 B. 提升訓練速度 C. 降低記憶體消耗 D. 增加準確性 **正確答案:** A 48. Hugging Face pipeline 三階段中不包含? A. preprocess B. forward C. postprocess D. optimize **正確答案:** D 49. 使用 Batch Inference 的優勢是? A. 即時輸出 B. 批次處理提升吞吐 C. 獨立部署 D. 減少記憶體使用 **正確答案:** B 50. Hallucination 在 LLM 應用中應避免,因為? A. 會延遲生成 B. 生成的內容可能不正確或不負責任 C. 增加成本 D. 無需校正 **正確答案:** B 好的,以下再幫您設計**另一組 50 題模擬考題**,延續前面範圍,但避開重複題目,更多著重在實務應用、NVIDIA 生態細節、案例導向題。每題為單選題,附正確答案。 --- ## **模擬考題第 51–100 題** ### **51–60:深度學習與最佳化** 51. 在 PyTorch 中,將模型與資料移到 GPU 的常用指令是? A. `model.to('cpu')` B. `model.cuda()` C. `model.to('cuda')` D. `torch.gpu()` **正確答案:** C 52. Adam 與 SGD 最大差異? A. Adam 有自適應學習率與動量項 B. SGD 訓練速度較快 C. Adam 僅用於分類任務 D. SGD 不支援 GPU **正確答案:** A 53. BatchNorm 的一個額外好處是? A. 提升可視化效果 B. 允許更高學習率 C. 減少記憶體 D. 改變模型結構 **正確答案:** B 54. Dropout 設定為 0.5 表示? A. 所有神經元刪除 B. 每層保留一半神經元 C. 每層刪除一半神經元 D. 只保留輸入層 **正確答案:** C 55. 訓練模型時,學習率過高會導致? A. 收斂過快且準確率高 B. Loss 無法穩定收斂 C. 訓練時間過長 D. 模型過擬合 **正確答案:** B 56. 混合精度訓練 (Mixed Precision Training) 的目的? A. 減少 GPU 記憶體、加快訓練 B. 增加參數 C. 降低精度 D. 用於 CPU **正確答案:** A 57. 常見的正則化技術不包括? A. L1/L2 正則 B. Dropout C. Data Augmentation D. 資料壓縮 **正確答案:** D 58. Early Stopping 的目標是? A. 增加訓練時間 B. 防止過擬合 C. 減少批次 D. 改變學習率 **正確答案:** B 59. 梯度消失問題常發生於? A. CNN B. RNN 長序列 C. 決策樹 D. Random Forest **正確答案:** B 60. 權重初始化不好會導致? A. 訓練加速 B. 模型無法收斂或效果差 C. 更高準確度 D. 更低記憶體 **正確答案:** B --- ### **61–70:NLP 與提示工程** 61. WordPiece 的核心概念是? A. 將整句拆成單字 B. 預先定義所有詞彙 C. 子詞單位,根據頻率合併 D. 僅適用英文 **正確答案:** C 62. 在 BERT 的 QA 任務中,輸出為? A. 單一分類標籤 B. start 與 end 位置 logits C. 整段文字 D. 多選答案 **正確答案:** B 63. Generative QA 和 Extractive QA 差別? A. 前者生成新句子,後者擷取文本片段 B. 前者速度快 C. 後者需大量資料 D. 兩者完全相同 **正確答案:** A 64. Encoder-Decoder 模型如 T5 的 Cross-Attention 作用是? A. 將 Encoder 與 Decoder 隔離 B. 讓 Decoder 聚焦於 Encoder 的資訊 C. 減少模型容量 D. 提升記憶體 **正確答案:** B 65. ChatGPT、Claude 屬於? A. Encoder-only B. Decoder-only 自迴歸 C. Seq2Seq D. RNN **正確答案:** B 66. 提示中加入 Chain-of-Thought 的好處是? A. 縮短輸出 B. 提供推理步驟、提升正確性 C. 減少記憶體 D. 提高速度 **正確答案:** B 67. System Message 在 LangChain 中通常用於? A. 設定模型溫度 B. 定義角色、行為及回覆風格 C. 清空記憶體 D. 加速訓練 **正確答案:** B 68. 溫度值設太高會? A. 生成隨機性過高,內容發散 B. 更精確 C. 完全重複訓練資料 D. 無影響 **正確答案:** A 69. RAG 模型需要兩個關鍵組件? A. 檢索器與生成器 B. 生成器與編碼器 C. 編碼器與解碼器 D. GPU 與 CPU **正確答案:** A 70. LangGraph 在提示工程中的優勢是? A. 提供圖形化多步代理流程 B. 縮短訓練時間 C. 用於數據庫管理 D. 替代所有 LLM **正確答案:** A --- ### **71–80:NVIDIA 工具與部署** 71. RAPIDS 的主要目標是? A. 視覺化 B. 端到端 GPU 加速資料科學 C. 語音辨識 D. 強化學習 **正確答案:** B 72. cuGraph 的功能是? A. 語音合成 B. 圖計算與最短路徑等分析 C. 文本分類 D. 視覺化圖像 **正確答案:** B 73. Dask 在 RAPIDS 中的角色? A. 單 GPU 資料加速 B. 多 GPU 與分散式計算 C. 僅適用 CPU D. 視覺化工具 **正確答案:** B 74. cuXfilter 能做什麼? A. 資料清理 B. GPU 加速的互動視覺化儀表板 C. 模型訓練 D. NLP 預處理 **正確答案:** B 75. TensorRT-LLM 特別針對什麼優化? A. 影像識別 B. 大語言模型推論效能 C. 音訊轉換 D. 強化學習 **正確答案:** B 76. Triton 可同時部署? A. 單模型 B. 多模型並行推論 C. 僅限 CPU 模型 D. 僅限語音模型 **正確答案:** B 77. NeMo 常用於? A. 聲音、NLP、對話式 AI B. 影像標註 C. 生物資料 D. 硬體測試 **正確答案:** A 78. Hugging Face Transformers 的 pipeline 包含幾個階段? A. 2 B. 3:Preprocess、Forward、Postprocess C. 4 D. 5 **正確答案:** B 79. Pydantic 在 Prompt Engineering 用於? A. 檢查輸出格式、確保結構化資料正確 B. 訓練模型 C. 建立資料庫 D. 清理資料 **正確答案:** A 80. NVIDIA NIM 的特色? A. 僅供訓練使用 B. 允許本地或雲端託管模型,透過 API 服務 C. 僅供 CPU D. 不支援 LLM **正確答案:** B --- ### **81–90:資料、評估與部署** 81. Parquet 格式的好處是? A. 行式資料存取快 B. 列式資料存取快、壓縮佳 C. 僅限影像資料 D. 無效 **正確答案:** B 82. t-SNE 用於? A. 特徵工程 B. 高維度降維可視化 C. 模型訓練 D. 部署 **正確答案:** B 83. XGBoost 在 GPU 上加速需指定? A. `gpu_hist` B. `cuda_hist` C. `gpu_enable` D. `tree_gpu` **正確答案:** A 84. K-means 的核心目標? A. 分群中心最小化平方距離 B. 分類 C. 預測 D. 回歸 **正確答案:** A 85. DBSCAN 與 K-means 不同之處? A. 不需指定群數 B. 更快 C. 僅限監督式學習 D. 需 GPU **正確答案:** A 86. Recall 指標提高時,Precision 通常會? A. 上升 B. 下降或持平 C. 無變化 D. 減少資料 **正確答案:** B 87. ROC Curve 與 AUC 用於? A. 分群 B. 分類性能評估 C. 文本摘要 D. 部署 **正確答案:** B 88. Hyperparameter Tuning 方法不包括? A. Grid Search B. Random Search C. Bayesian Optimization D. TensorRT **正確答案:** D 89. Confusion Matrix 可提供? A. 精確率、召回率等統計 B. 僅顯示 Loss C. 僅用於 NLP D. 僅用於回歸 **正確答案:** A 90. Quantization 的潛在缺點? A. 提升精度 B. 可能降低模型準確度 C. 提升速度 D. 減少功耗 **正確答案:** B --- ### **91–100:綜合實務與應用** 91. JupyterLab 的優點不包括? A. 支援互動式開發 B. 整合 Markdown 與程式碼 C. 僅能線上使用 D. 可管理多核心 **正確答案:** C 92. 在 cuDF 中篩選欄位的語法類似? A. SQL B. Pandas C. C++ D. MATLAB **正確答案:** B 93. Dask 延遲計算 (Lazy Evaluation) 的意義? A. 立即執行所有指令 B. 僅在呼叫 compute() 時才執行 C. 加速 GPU D. 減少記憶體 **正確答案:** B 94. LangChain 中的 Runnable 對象可? A. 以 invoke/batch/stream 等模式執行 B. 僅能批次 C. 僅能串流 D. 僅能單步執行 **正確答案:** A 95. LCEL 表示? A. LangChain Expression Language B. Local Chain Execution Layer C. Large Context Embedding Layer D. 以上皆非 **正確答案:** A 96. Hugging Face Trainer 主要用於? A. 簡化模型訓練與評估流程 B. 部署服務 C. 文字視覺化 D. 資料清理 **正確答案:** A 97. Triton 支援的模型格式不包括? A. ONNX B. TensorFlow SavedModel C. TorchScript D. JPEG **正確答案:** D 98. NVIDIA DGX 伺服器主要用途? A. 個人電腦使用 B. 高效能 AI 訓練與推論 C. 只做資料庫 D. 影像渲染 **正確答案:** B 99. 在 LCEL 管線中可使用的組件包括? A. RunnableLambda、OutputParser、ParallelChain B. API Key C. CUDA Driver D. CSV Parser Only **正確答案:** A 100. LLM Agent 常用於? A. 多步驟任務規劃與工具整合 B. 只生成文本 C. 資料庫建立 D. 單層分類 **正確答案:** A --- ### **101–110:深度學習核心** 101. 使用 DataLoader 的主要目的為何? A. 可視化資料 B. 將資料分批供訓練使用,避免記憶體不足 C. 減少訓練資料 D. 訓練更快的模型 **答案:** B 102. 使用 GPU 訓練模型相較 CPU 的最大優勢? A. 記憶體較少 B. 平行運算大幅加速 C. 可讀性好 D. 更易於除錯 **答案:** B 103. PyTorch 中 `torch.nn.Sequential` 用來? A. 建立連續的層組合 B. 儲存模型檔 C. 做資料前處理 D. 寫訓練日誌 **答案:** A 104. 優化器 (Optimizer) 的角色是? A. 決定網路架構 B. 更新權重以最小化損失 C. 監控 GPU 使用率 D. 轉換資料格式 **答案:** B 105. 活化函數 ReLU 的優點? A. 線性輸出,訓練速度快 B. 非線性,避免梯度消失 C. 可做降維 D. 提升精度但計算慢 **答案:** B 106. Gradient Clipping 的功能是? A. 提升學習率 B. 限制梯度範圍,防止梯度爆炸 C. 減少資料量 D. 減少記憶體使用 **答案:** B 107. Softmax 函數常用於? A. 二元分類 B. 多分類輸出概率 C. 降維 D. 聚類 **答案:** B 108. Loss 曲線若呈現震盪狀態,通常原因為? A. 學習率過高 B. 學習率過低 C. 資料不足 D. 訓練步數過少 **答案:** A 109. L2 正則化的目的是? A. 降低參數值,避免過擬合 B. 增加模型容量 C. 減少訓練時間 D. 改變學習率 **答案:** A 110. 模型過擬合時可嘗試? A. 增加資料、正則化、Dropout B. 提高學習率 C. 減少驗證集 D. 使用更深的模型 **答案:** A --- ### **111–120:Transformer 與 LLM** 111. Transformer 模型的最大特徵? A. 無需序列順序 B. 平行運算,自注意力捕捉長距離依賴 C. 只用 CNN D. 只能處理短文本 **答案:** B 112. BERT 與 GPT 的主要不同? A. BERT 是編碼器、GPT 是解碼器 B. BERT 用於生成 C. GPT 用於分類 D. 相同 **答案:** A 113. Positional Encoding 的公式作用? A. 為序列加權,保留位置資訊 B. 增強速度 C. 壓縮模型 D. 生成新詞 **答案:** A 114. Hugging Face 的 pipeline 可快速? A. 部署 Web B. 進行推論,如分類、QA C. 壓縮資料 D. 降維 **答案:** B 115. Tokenization 的意義? A. 建立詞典 B. 將句子切割為可處理的單元 C. 提高準確度 D. 減少資料 **答案:** B 116. BERT 常用於哪類任務? A. 文本理解:分類、NER、QA B. 圖像生成 C. 語音辨識 D. 強化學習 **答案:** A 117. Encoder-Decoder 架構的優勢? A. 同時考慮輸入與輸出序列 B. 速度快於所有模型 C. 只能做分類 D. 不支援翻譯 **答案:** A 118. CLM(Causal Language Model)特徵? A. 雙向 B. 單向自回歸,預測下一個 token C. 只做分類 D. 不可微調 **答案:** B 119. 為什麼需要 \[CLS] token? A. 用於段落分割 B. 作為分類向量 C. 調整溫度 D. 用於壓縮 **答案:** B 120. 在 QA 任務中,BERT 如何回答? A. 自由生成句子 B. 從上下文中抽取起止位置 C. 用數字回答 D. 不支援 **答案:** B --- ### **121–130:NVIDIA 工具與框架** 121. cuDF 主要是? A. GPU 加速的 Pandas B. CPU 版本的 TensorFlow C. 資料庫系統 D. 編輯器 **答案:** A 122. cuML 用來做? A. GPU 加速 ML 演算法 B. 可視化 C. 語音辨識 D. 儲存模型 **答案:** A 123. cuGraph 特別適合? A. 社交網路分析、最短路徑 B. 影像分類 C. 語音合成 D. 文本摘要 **答案:** A 124. RAPIDS 的目標? A. 在 GPU 上端到端處理資料科學流程 B. 建立 Web 前端 C. 僅做視覺化 D. 文本清理 **答案:** A 125. Triton Server 功能? A. 提供模型推論服務,可多模型並行 B. 訓練模型 C. 建立資料倉儲 D. 語音合成 **答案:** A 126. TensorRT-LLM 的主要優勢? A. 推論效能提升 B. 訓練速度變慢 C. 資料分析 D. 前端框架 **答案:** A 127. NeMo 框架可應用於? A. 語音、NLP、對話 B. 圖像渲染 C. 硬體測試 D. 遊戲設計 **答案:** A 128. LangChain 最主要功能? A. 編排 LLM、建立多步鏈與代理 B. 資料視覺化 C. 資料庫管理 D. 安全測試 **答案:** A 129. LangGraph 特性? A. 圖形化代理、多任務 B. 壓縮資料 C. 減少模型 D. 網頁前端 **答案:** A 130. NIM 代表? A. NVIDIA Inference Microservices,微服務部署模型 B. 新演算法名稱 C. 資料可視化工具 D. 資料清理工具 **答案:** A --- ### **131–140:提示與生成** 131. Prompt Injection 風險是? A. 惡意提示影響模型輸出 B. 增加速度 C. 資料壓縮 D. 改變權重 **答案:** A 132. Few-shot 提示時,示例作用? A. 幫助模型理解任務格式 B. 加速訓練 C. 減少記憶體 D. 生成更長文本 **答案:** A 133. Zero-shot 與 Few-shot 差異? A. Zero-shot 無示例,Few-shot 有少量示例 B. Zero-shot 更準確 C. Few-shot 不能學習 D. 完全相同 **答案:** A 134. LCEL 用於? A. 定義鏈與代理的組合表達式 B. 改變學習率 C. 編輯資料 D. GPU 配置 **答案:** A 135. System Message 在代理中功能? A. 控制整體角色與行為 B. 加速推論 C. 降低延遲 D. 壓縮檔案 **答案:** A 136. Pydantic 在 Prompt Pipeline 中? A. 確保輸出符合預期結構 B. 調整學習率 C. 減少參數 D. 刪除資料 **答案:** A 137. Temperature=0 的影響? A. 完全確定性輸出,無隨機性 B. 隨機性最大 C. 加速訓練 D. 無影響 **答案:** A 138. Top-k=5 代表? A. 每次只在前 5 個最可能的 token 中選擇 B. 生成 5 段文本 C. 取 5 筆資料 D. 提高記憶體 **答案:** A 139. Chain-of-Thought 最適合? A. 複雜推理、多步驟解題 B. 快速分類 C. 圖像生成 D. 部署 **答案:** A 140. RAG 提升 LLM 能力的原因? A. 透過檢索加入外部知識,減少幻覺 B. 讓模型更快 C. 減少溫度 D. 降低成本 **答案:** A --- ### **141–150:評估與實務** 141. Precision 高、Recall 低的情況適合? A. 醫療診斷高敏感度 B. 嚴格挑選正例,不漏錯誤答案 C. 需找出所有正例 D. 降低成本 **答案:** B 142. Recall 高代表? A. 正例被抓得多 B. 正例被漏得多 C. 預測差 D. 不穩定 **答案:** A 143. AUC 越接近 1 表示? A. 模型區分能力好 B. 模型差 C. 與 ROC 無關 D. 不穩定 **答案:** A 144. Hyperparameter Tuning 的目的? A. 尋找最佳模型設定 B. 儲存模型 C. 減少資料量 D. 減少 GPU **答案:** A 145. Confusion Matrix 提供什麼資訊? A. 真陽性、假陽性、真陰性、假陰性 B. 模型大小 C. 記憶體使用 D. 網路延遲 **答案:** A 146. KNN 的工作原理? A. 根據鄰近資料點投票分類或回歸 B. 建立深度網路 C. 文本生成 D. 壓縮資料 **答案:** A 147. DBSCAN 的核心參數? A. ε (鄰域半徑) 和 MinPts B. 學習率 C. 迭代次數 D. 層數 **答案:** A 148. XGBoost 的主要特點? A. 梯度提升樹模型,可平行化 B. 影像生成 C. 語音辨識 D. 隨機投票 **答案:** A 149. RAPIDS 與 Pandas 相比的優勢? A. GPU 加速,大幅減少處理時間 B. 支援更多語言 C. 免費 D. 功能少 **答案:** A 150. 為何要將模型部署為微服務? A. 易於維護、可擴展、快速更新 B. 降低準確度 C. 減少資料 D. 單一用途 **答案:** A ### **151–160:NVIDIA 硬體與平台** 151. NVIDIA DGX 系統的主要用途? A. 辦公軟體 B. 高效能 AI 訓練與推論 C. 資料庫管理 D. 遊戲渲染 **答案:** B 152. NVIDIA H100 GPU 的特點? A. 僅支援 2D 繪圖 B. 具備 Transformer Engine,加速 LLM 訓練 C. 僅適用影像處理 D. 僅支援 CPU **答案:** B 153. NVIDIA Tensor Core 的用途是? A. 高效矩陣計算,加速 AI 工作負載 B. 文本編碼 C. 資料視覺化 D. 瀏覽網頁 **答案:** A 154. NVIDIA NVLink 的作用? A. 連接硬碟 B. 提供高速 GPU-to-GPU 互連 C. 調整顯示設定 D. 降低網路延遲 **答案:** B 155. Jetson Nano 的應用場景? A. 僅作辦公 B. 邊緣 AI、機器人與嵌入式推論 C. 網頁前端 D. 資料備份 **答案:** B 156. NVIDIA Omniverse 的用途是? A. 雲端遊戲串流 B. 協作 3D 模擬與虛擬世界平台 C. 單純的資料庫 D. 視訊剪輯 **答案:** B 157. CUDA 的主要功能? A. 網路通訊協議 B. 平行運算平台與 API,加速運算 C. 檔案系統 D. 文書處理 **答案:** B 158. NVIDIA GPU Cloud (NGC) 的特色? A. 僅提供照片儲存 B. 提供容器、模型與資源的雲端平台 C. 僅支援 Windows D. 僅支援音樂播放 **答案:** B 159. NVIDIA BlueField 是什麼? A. 晶圓製造設備 B. DPU (資料處理單元),加速資料中心網路與安全 C. 電源管理晶片 D. 螢幕控制器 **答案:** B 160. NVIDIA Grace CPU 的定位? A. 僅做遊戲 B. 針對高效能運算與 AI 的伺服器級 CPU C. 僅用於手機 D. 音樂播放器 **答案:** B --- ### **161–170:開發框架與工具** 161. NVIDIA RAPIDS 的核心目標? A. 文件管理 B. GPU 加速資料科學工作流 C. 視覺設計 D. 語音合成 **答案:** B 162. cuDF 是? A. 資料庫管理工具 B. GPU 加速的 Pandas 類資料框架 C. 網頁框架 D. 雲端硬碟 **答案:** B 163. cuML 的功能? A. 資料視覺化 B. GPU 加速的機器學習函式庫 C. 檔案壓縮 D. 語音編輯 **答案:** B 164. cuGraph 的用途? A. GPU 加速的圖形計算,如最短路徑、社群分析 B. 文本生成 C. 音訊串流 D. 前端 UI **答案:** A 165. NVIDIA Triton Inference Server 可做什麼? A. 訓練模型 B. 部署與管理推論服務 C. 文書處理 D. 網頁撰寫 **答案:** B 166. TensorRT 的主要用途? A. 前端設計 B. 優化模型推論,減少延遲 C. 播放音樂 D. 資料備份 **答案:** B 167. NVIDIA NeMo 專注於? A. NLP 與語音 AI 框架 B. 硬體設計 C. 資料清理 D. 前端開發 **答案:** A 168. NVIDIA Morpheus 平台適合? A. AI 資安威脅偵測與資料中心安全分析 B. 遊戲設計 C. 影像壓縮 D. 影片轉檔 **答案:** A 169. NVIDIA Maxine 的應用是? A. 影音會議強化與 AI 視訊處理 B. 文書處理 C. 硬體驅動 D. 檔案加密 **答案:** A 170. NVIDIA Broadcast 可做什麼? A. 即時音訊與視訊增強,如降噪與虛擬背景 B. GPU 韌體更新 C. 資料加密 D. 文件管理 **答案:** A --- ### **171–180:多模態與生成式 AI** 171. NVIDIA Picasso 平台聚焦於? A. 平面設計 B. 生成式 AI 內容創作 (影像、影片) C. 硬體維護 D. 網路架構 **答案:** B 172. NVIDIA AI Enterprise 是? A. 免費雲端硬碟 B. 企業級 AI 平台與工具套件 C. 手機應用 D. 遊戲引擎 **答案:** B 173. NVIDIA DGX Cloud 提供? A. 本地存檔 B. 雲端 GPU 訓練與推論服務 C. 照片管理 D. VR 遊戲 **答案:** B 174. NVIDIA TAO Toolkit 的功能? A. 即時編譯器 B. 簡化模型訓練與微調流程 C. 資料視覺化 D. 資料壓縮 **答案:** B 175. NVIDIA BioNeMo 主要用於? A. 生物醫學與藥物發現的生成式 AI 平台 B. 遊戲渲染 C. 社交網路 D. 聲音合成 **答案:** A 176. NVIDIA Clara 的應用是? A. 醫療影像 AI、智慧醫療 B. 教育平台 C. 影片編輯 D. 數據壓縮 **答案:** A 177. NVIDIA Isaac 平台適用於? A. 機器人開發與模擬 B. 音樂播放 C. 軟體測試 D. 數據備份 **答案:** A 178. NVIDIA DRIVE 的主要領域? A. 自動駕駛與車載 AI B. 網路安全 C. 資料庫 D. 影像壓縮 **答案:** A 179. NVIDIA Holoscan 的用途? A. 即時串流 AI 管線,醫療與工業應用 B. 遊戲開發 C. 影片製作 D. 資料庫管理 **答案:** A 180. NVIDIA DeepStream SDK 的功能? A. 視訊分析與 AI 視覺串流 B. 語音合成 C. 檔案備份 D. Web 前端 **答案:** A --- ### **181–190:開發與部署實務** 181. NGC 容器的好處? A. 可攜式、快速部署、包含預設環境 B. 只能在 Windows 用 C. 僅限手機 D. 僅支援 CPU **答案:** A 182. CUDA 核心的運作單位稱為? A. Warp B. Tensor C. Layer D. Node **答案:** A 183. NVIDIA GPU 驅動程式的功能是? A. 提供硬體與作業系統間的介面 B. 建立資料表 C. 編寫 API 文件 D. 資料清理 **答案:** A 184. Tensor Core 在矩陣運算上與 FP32 的差別? A. Tensor Core 更高吞吐量與混合精度支持 B. 相同速度 C. 僅支持整數 D. 無差異 **答案:** A 185. NVIDIA Nsight 工具用於? A. 分析、除錯與效能調優 GPU 應用 B. 音樂串流 C. 資料備份 D. 網路管理 **答案:** A 186. GPU Memory Pooling 主要好處? A. 提升記憶體使用效率,減少碎片 B. 增加模型精度 C. 降低溫度 D. 只能用於 CPU **答案:** A 187. CUDA Stream 的功能是? A. 非同步執行任務,提高效率 B. 同步鎖定 C. 壓縮資料 D. 可視化 **答案:** A 188. NVIDIA MIG 技術的用途? A. 將單 GPU 切割為多個獨立實例 B. 減速 GPU C. 提升記憶體容量 D. 調整網路延遲 **答案:** A 189. Triton 支援哪些模型框架? A. TensorFlow、PyTorch、ONNX 等 B. 只能 TensorFlow C. 只能 PyTorch D. 僅文字處理 **答案:** A 190. NVIDIA Modulus 的特點? A. 物理資訊神經網路 (PINN),用於模擬與科學計算 B. 遊戲引擎 C. 資料庫管理 D. 影像處理 **答案:** A --- ### **191–200:綜合應用** 191. NVIDIA Inception 計畫提供? A. 新創支援、技術資源與曝光機會 B. 網頁託管 C. 財務貸款 D. 內容審核 **答案:** A 192. NVIDIA AI Workbench 的功能? A. 簡化 AI 專案的設定、開發與部署 B. 網頁設計 C. 資料存儲 D. 音樂製作 **答案:** A 193. NVIDIA Fleet Command 是? A. 部署與管理邊緣 AI 的 SaaS 平台 B. 車隊調度 C. 硬體製造 D. 訊息應用 **答案:** A 194. NVIDIA Base Command 用於? A. 雲端 GPU 培訓與作業管理平台 B. API 設計 C. 文書管理 D. 網頁撰寫 **答案:** A 195. NVIDIA AI Foundations 的特色? A. 提供定製化生成式 AI 模型與服務 B. 硬體測試 C. 音樂編輯 D. 瀏覽器 **答案:** A 196. NVIDIA JetPack 是? A. Jetson 平台的軟體開發套件 B. 資料壓縮工具 C. 音訊播放器 D. 網路協議 **答案:** A 197. NVIDIA TensorRT-LLM 支援什麼功能? A. 大語言模型推論最佳化、加速與記憶體優化 B. 語音播放 C. 編輯文本 D. 前端設計 **答案:** A 198. NVIDIA Deep Learning Institute (DLI) 的作用? A. 提供 AI 與 HPC 線上課程與訓練 B. 硬體製造 C. 商業顧問 D. 音樂課程 **答案:** A 199. NVIDIA GPU Operator 用於? A. 在 Kubernetes 環境中管理 GPU 資源 B. 資料庫備份 C. 音樂合成 D. 辦公軟體 **答案:** A 200. NVIDIA Clara Guardian 的用途? A. 醫療物聯網 (IoT) 與醫院智慧應用平台 B. 文書處理 C. 影片剪輯 D. 測試硬體 **答案:** A