# 模擬考題設定說明
* 題型為單選題,每題附有正確答案與簡要解析。
* 題目涵蓋範圍包括:基礎理論、架構設計/部署技術、提示工程、NVIDIA 生態工具、模型評估與資料處理等。
* 題目設計參考 HackMD 文件和先前整理的重點名詞。
---
## 模擬考題(共 50 題)
### 1–10:基礎與架構
1. Transformer 模型中使用的 Layer Normalization 的主要功能是?
A. 提高訓練速度
B. 穩定訓練過程、避免梯度消失/爆炸
C. 降低參數量
D. 增加模型層數
**正確答案:** B
2. 下列何者最能避免 CNN 模型過擬合?
A. 增加參數量
B. 使用 Flatten Layer
C. 採用 Dropout
D. 減少 Batch Size
**正確答案:** C
3. 「Frozen Layers」在遷移學習中常用於?
A. 加快訓練速度
B. 避免破壞預訓練權重
C. 提高模型大小
D. 測試模型
**正確答案:** B
4. Self-Attention 的作用是?
A. 捕捉序列元素間的依賴性
B. 縮短訓練時間
C. 減少序列長度
D. 防止梯度爆炸
**正確答案:** A
5. Seq2Seq 結構常用於?
A. 情感分析
B. 文本摘要或翻譯
C. 實體辨識
D. 分類任務
**正確答案:** B
6. 多頭注意力(Multi-Head Attention)能帶來?
A. 多模態融合
B. 提升表達能力並並行注意力
C. 壓縮模型大小
D. 延長輸入序列
**正確答案:** B
7. Transformer 中加入位置編碼 (Positional Encoding) 是為了?
A. 提示模型學習時間特性
B. 保留序列順序資訊
C. 降低記憶體使用
D. 強化分類
**正確答案:** B
8. 使用 BERT 做 Masked LM 的目的是?
A. 預測下一個字詞
B. 還原被遮蔽詞
C. 分類文本
D. 生成摘要
**正確答案:** B
9. GAN 是 Generative Adversarial Network 的簡稱,其架構包含:
A. Encoder 和 Decoder
B. Generator 和 Discriminator
C. Classifier 和 Regressor
D. Encoder 和 Attention
**正確答案:** B
10. Gradient Descent 的作用是?
A. 優化模型架構
B. 更新模型權重,最小化損失函數
C. 平行化訓練
D. 增加模型容量
**正確答案:** B
---
### 11–20:自然語言與提示工程
11. Few-Shot Learning 表示?
A. 完全不需要示例
B. 使用少量示例進行學習
C. 使用大量示例做微調
D. 不需要預訓練
**正確答案:** B
12. Prompt Engineering 的用途是?
A. 優化 GPU 計算
B. 設計提示以引導模型產出
C. 壓縮模型
D. 增加訓練數據
**正確答案:** B
13. RAG 的全名為 Retrieval-Augmented Generation,其功能是?
A. 利用生成資料做檢索
B. 結合對外檢索與生成能力
C. 僅生成文本
D. 僅尋找資料庫文章
**正確答案:** B
14. Chain-of-Thought 提示設計能有效讓模型?
A. 生成段落摘要
B. 逐步推理而非直接給答案
C. 學習語言結構
D. 提升訓練速度
**正確答案:** B
15. System Prompt 通常用於?
A. 控制模型推理流程
B. 控制整體角色與行為
C. 設定學習率
D. 控制 GPU 使用率
**正確答案:** B
16. Top-p (Nucleus Sampling) 的作用為?
A. 限制隨機性
B. 只從累積機率前 p% 選-token
C. 增加生成長度
D. 生成更多文本
**正確答案:** B
17. Temperature 在生成任務中調整模型輸出時用於?
A. 減少模型大小
B. 控制隨機性
C. 優化推論速度
D. 增加訓練次數
**正確答案:** B
18. Zero-Shot Learning 是指模型?
A. 不需示例即可執行新任務
B. 使用少量示例學習
C. 訓練時無資料
D. 無法預測
**正確答案:** A
19. Hallucination 是 LLM 生成中的?
A. 真實可信輸出
B. 與事實不符的內容
C. 高精度生成
D. 沒有結論的輸出
**正確答案:** B
20. Alignment 在 LLM 上一般指?
A. 模型內部層對齊
B. 符合人類期待行為
C. 模型輸出格式
D. 計算資源分配
**正確答案:** B
---
### 21–30:NVIDIA 工具與部署
21. cuDF 類似於?
A. NumPy
B. Pandas(GPU 加速版)
C. Matplotlib
D. PyTorch
**正確答案:** B
22. cuML 是用於?
A. 數據可視化
B. GPU 加速的機器學習函式庫
C. 模型儲存
D. 語音處理
**正確答案:** B
23. Dask-cuDF 支援?
A. CPU 分散式計算
B. 多 GPU 分散式資料處理
C. 單機 CPU 優化
D. 模型調優
**正確答案:** B
24. TensorRT-LLM 的主要功能是?
A. 優化 inferenece,降低延遲
B. 訓練 LLM
C. 儲存模型
D. 評估模型
**正確答案:** A
25. Triton Inference Server 用於?
A. 訓練
B. 模型服務部署與併發推論
C. 資料增強
D. 模型壓縮
**正確答案:** B
26. NeMo 是 NVIDIA 提供的?
A. 視覺框架
B. 語音/NLP 框架
C. 資料庫
D. 部署工具
**正確答案:** B
27. NIM (Inference Microservices) 的用途?
A. 支援模型本地 API 呼叫與託管
B. 訓練模型
C. 調參工具
D. 可視化工具
**正確答案:** A
28. LangChain 是?
A. 模型壓縮工具
B. LLM 編排與代理框架
C. GPU 管理工具
D. 語料庫
**正確答案:** B
29. LCEL 是其中語法語言,用於?
A. 定義模型啟動流程
B. 串接 Prompt Chains
C. 儲存模型
D. 語料清理
**正確答案:** B
30. Pydantic 常用於?
A. 評估模型準確度
B. 定義與驗證結構化輸出(如 JSON Schema)
C. 訓練圖
D. 模型部署
**正確答案:** B
---
### 31–40:資料處理與評估
31. cuXfilter 用於?
A. 資料清理
B. GPU 加速的互動式視覺化
C. 模型訓練
D. 模型推論
**正確答案:** B
32. BLEU score 常用於評估?
A. 文本分類準確度
B. 機器翻譯正確性
C. 圖像生成品質
D. 分群結果
**正確答案:** B
33. ROUGE 指標主要評估?
A. 情感分析結果
B. 摘要生成的召回率
C. 寫作風格
D. 準確率
**正確答案:** B
34. t-SNE 用於?
A. 類別預測
B. 高維資料降維視覺化
C. 模型訓練
D. 評估指標
**正確答案:** B
35. Cross Validation 好處在於?
A. 提高模型速度
B. 提高評估穩健性
C. 減少訓練資料
D. 增加批次大小
**正確答案:** B
36. Quantization 是什麼?
A. 增加模型容量
B. 降低模型精度以提升效能
C. 增加參數量
D. 增加精度
**正確答案:** B
37. A/B Testing 的設計用於?
A. 測試兩模型推論效果比較
B. 壓縮模型
C. 增加數據量
D. 降低延遲
**正確答案:** A
38. Precision 用於?
A. 分群效果評估
B. 真陽性比率
C. 文本摘要評估
D. 視覺化
**正確答案:** B
39. Recall 代表?
A. 所有預測中正確比例
B. 真實正例被模型找出比例
C. 平均值
D. 最大值
**正確答案:** B
40. F1 Score 是?
A. Precision × Recall
B. Precision 與 Recall 的調和平均
C. 最大值
D. 損失函式
**正確答案:** B
---
### 41–50:綜合應用與部署實務
41. 使用 Mixed-Precision Training 好處是?
A. 提升記憶體用量
B. 加速訓練且降低資源消耗
C. 增加訓練時間
D. 提升模型準確性
**正確答案:** B
42. NVLink 在多 GPU 訓練時有何效益?
A. 減少延遲
B. 提供高速 GPU 間連接
C. 增加模型大小
D. 優化記憶體分配
**正確答案:** B
43. Tensor Cores 的功能是?
A. 處理圖像渲染
B. 加速矩陣運算
C. 處理文本分類
D. 管理資料讀寫
**正確答案:** B
44. GPT 類模型屬於哪種語言模型?
A. Encoder-Decoder
B. Decoder-only 自迴歸模型
C. Bidirectional MLM
D. Hybrid 模型
**正確答案:** B
45. T5 模型使用哪種架構?
A. Decoder-only
B. Seq2Seq Encoder-Decoder
C. MLP
D. RNN
**正確答案:** B
46. 多模態模型可處理哪些資料類型?
A. 文本 only
B. 圖像, 文字, 音訊等多種形式
C. 結構化資料 only
D. 時間序列 only
**正確答案:** B
47. 模型部署成微服務(Microservice)好處是?
A. 隨需擴展、易管理
B. 提升訓練速度
C. 降低記憶體消耗
D. 增加準確性
**正確答案:** A
48. Hugging Face pipeline 三階段中不包含?
A. preprocess
B. forward
C. postprocess
D. optimize
**正確答案:** D
49. 使用 Batch Inference 的優勢是?
A. 即時輸出
B. 批次處理提升吞吐
C. 獨立部署
D. 減少記憶體使用
**正確答案:** B
50. Hallucination 在 LLM 應用中應避免,因為?
A. 會延遲生成
B. 生成的內容可能不正確或不負責任
C. 增加成本
D. 無需校正
**正確答案:** B
好的,以下再幫您設計**另一組 50 題模擬考題**,延續前面範圍,但避開重複題目,更多著重在實務應用、NVIDIA 生態細節、案例導向題。每題為單選題,附正確答案。
---
## **模擬考題第 51–100 題**
### **51–60:深度學習與最佳化**
51. 在 PyTorch 中,將模型與資料移到 GPU 的常用指令是?
A. `model.to('cpu')`
B. `model.cuda()`
C. `model.to('cuda')`
D. `torch.gpu()`
**正確答案:** C
52. Adam 與 SGD 最大差異?
A. Adam 有自適應學習率與動量項
B. SGD 訓練速度較快
C. Adam 僅用於分類任務
D. SGD 不支援 GPU
**正確答案:** A
53. BatchNorm 的一個額外好處是?
A. 提升可視化效果
B. 允許更高學習率
C. 減少記憶體
D. 改變模型結構
**正確答案:** B
54. Dropout 設定為 0.5 表示?
A. 所有神經元刪除
B. 每層保留一半神經元
C. 每層刪除一半神經元
D. 只保留輸入層
**正確答案:** C
55. 訓練模型時,學習率過高會導致?
A. 收斂過快且準確率高
B. Loss 無法穩定收斂
C. 訓練時間過長
D. 模型過擬合
**正確答案:** B
56. 混合精度訓練 (Mixed Precision Training) 的目的?
A. 減少 GPU 記憶體、加快訓練
B. 增加參數
C. 降低精度
D. 用於 CPU
**正確答案:** A
57. 常見的正則化技術不包括?
A. L1/L2 正則
B. Dropout
C. Data Augmentation
D. 資料壓縮
**正確答案:** D
58. Early Stopping 的目標是?
A. 增加訓練時間
B. 防止過擬合
C. 減少批次
D. 改變學習率
**正確答案:** B
59. 梯度消失問題常發生於?
A. CNN
B. RNN 長序列
C. 決策樹
D. Random Forest
**正確答案:** B
60. 權重初始化不好會導致?
A. 訓練加速
B. 模型無法收斂或效果差
C. 更高準確度
D. 更低記憶體
**正確答案:** B
---
### **61–70:NLP 與提示工程**
61. WordPiece 的核心概念是?
A. 將整句拆成單字
B. 預先定義所有詞彙
C. 子詞單位,根據頻率合併
D. 僅適用英文
**正確答案:** C
62. 在 BERT 的 QA 任務中,輸出為?
A. 單一分類標籤
B. start 與 end 位置 logits
C. 整段文字
D. 多選答案
**正確答案:** B
63. Generative QA 和 Extractive QA 差別?
A. 前者生成新句子,後者擷取文本片段
B. 前者速度快
C. 後者需大量資料
D. 兩者完全相同
**正確答案:** A
64. Encoder-Decoder 模型如 T5 的 Cross-Attention 作用是?
A. 將 Encoder 與 Decoder 隔離
B. 讓 Decoder 聚焦於 Encoder 的資訊
C. 減少模型容量
D. 提升記憶體
**正確答案:** B
65. ChatGPT、Claude 屬於?
A. Encoder-only
B. Decoder-only 自迴歸
C. Seq2Seq
D. RNN
**正確答案:** B
66. 提示中加入 Chain-of-Thought 的好處是?
A. 縮短輸出
B. 提供推理步驟、提升正確性
C. 減少記憶體
D. 提高速度
**正確答案:** B
67. System Message 在 LangChain 中通常用於?
A. 設定模型溫度
B. 定義角色、行為及回覆風格
C. 清空記憶體
D. 加速訓練
**正確答案:** B
68. 溫度值設太高會?
A. 生成隨機性過高,內容發散
B. 更精確
C. 完全重複訓練資料
D. 無影響
**正確答案:** A
69. RAG 模型需要兩個關鍵組件?
A. 檢索器與生成器
B. 生成器與編碼器
C. 編碼器與解碼器
D. GPU 與 CPU
**正確答案:** A
70. LangGraph 在提示工程中的優勢是?
A. 提供圖形化多步代理流程
B. 縮短訓練時間
C. 用於數據庫管理
D. 替代所有 LLM
**正確答案:** A
---
### **71–80:NVIDIA 工具與部署**
71. RAPIDS 的主要目標是?
A. 視覺化
B. 端到端 GPU 加速資料科學
C. 語音辨識
D. 強化學習
**正確答案:** B
72. cuGraph 的功能是?
A. 語音合成
B. 圖計算與最短路徑等分析
C. 文本分類
D. 視覺化圖像
**正確答案:** B
73. Dask 在 RAPIDS 中的角色?
A. 單 GPU 資料加速
B. 多 GPU 與分散式計算
C. 僅適用 CPU
D. 視覺化工具
**正確答案:** B
74. cuXfilter 能做什麼?
A. 資料清理
B. GPU 加速的互動視覺化儀表板
C. 模型訓練
D. NLP 預處理
**正確答案:** B
75. TensorRT-LLM 特別針對什麼優化?
A. 影像識別
B. 大語言模型推論效能
C. 音訊轉換
D. 強化學習
**正確答案:** B
76. Triton 可同時部署?
A. 單模型
B. 多模型並行推論
C. 僅限 CPU 模型
D. 僅限語音模型
**正確答案:** B
77. NeMo 常用於?
A. 聲音、NLP、對話式 AI
B. 影像標註
C. 生物資料
D. 硬體測試
**正確答案:** A
78. Hugging Face Transformers 的 pipeline 包含幾個階段?
A. 2
B. 3:Preprocess、Forward、Postprocess
C. 4
D. 5
**正確答案:** B
79. Pydantic 在 Prompt Engineering 用於?
A. 檢查輸出格式、確保結構化資料正確
B. 訓練模型
C. 建立資料庫
D. 清理資料
**正確答案:** A
80. NVIDIA NIM 的特色?
A. 僅供訓練使用
B. 允許本地或雲端託管模型,透過 API 服務
C. 僅供 CPU
D. 不支援 LLM
**正確答案:** B
---
### **81–90:資料、評估與部署**
81. Parquet 格式的好處是?
A. 行式資料存取快
B. 列式資料存取快、壓縮佳
C. 僅限影像資料
D. 無效
**正確答案:** B
82. t-SNE 用於?
A. 特徵工程
B. 高維度降維可視化
C. 模型訓練
D. 部署
**正確答案:** B
83. XGBoost 在 GPU 上加速需指定?
A. `gpu_hist`
B. `cuda_hist`
C. `gpu_enable`
D. `tree_gpu`
**正確答案:** A
84. K-means 的核心目標?
A. 分群中心最小化平方距離
B. 分類
C. 預測
D. 回歸
**正確答案:** A
85. DBSCAN 與 K-means 不同之處?
A. 不需指定群數
B. 更快
C. 僅限監督式學習
D. 需 GPU
**正確答案:** A
86. Recall 指標提高時,Precision 通常會?
A. 上升
B. 下降或持平
C. 無變化
D. 減少資料
**正確答案:** B
87. ROC Curve 與 AUC 用於?
A. 分群
B. 分類性能評估
C. 文本摘要
D. 部署
**正確答案:** B
88. Hyperparameter Tuning 方法不包括?
A. Grid Search
B. Random Search
C. Bayesian Optimization
D. TensorRT
**正確答案:** D
89. Confusion Matrix 可提供?
A. 精確率、召回率等統計
B. 僅顯示 Loss
C. 僅用於 NLP
D. 僅用於回歸
**正確答案:** A
90. Quantization 的潛在缺點?
A. 提升精度
B. 可能降低模型準確度
C. 提升速度
D. 減少功耗
**正確答案:** B
---
### **91–100:綜合實務與應用**
91. JupyterLab 的優點不包括?
A. 支援互動式開發
B. 整合 Markdown 與程式碼
C. 僅能線上使用
D. 可管理多核心
**正確答案:** C
92. 在 cuDF 中篩選欄位的語法類似?
A. SQL
B. Pandas
C. C++
D. MATLAB
**正確答案:** B
93. Dask 延遲計算 (Lazy Evaluation) 的意義?
A. 立即執行所有指令
B. 僅在呼叫 compute() 時才執行
C. 加速 GPU
D. 減少記憶體
**正確答案:** B
94. LangChain 中的 Runnable 對象可?
A. 以 invoke/batch/stream 等模式執行
B. 僅能批次
C. 僅能串流
D. 僅能單步執行
**正確答案:** A
95. LCEL 表示?
A. LangChain Expression Language
B. Local Chain Execution Layer
C. Large Context Embedding Layer
D. 以上皆非
**正確答案:** A
96. Hugging Face Trainer 主要用於?
A. 簡化模型訓練與評估流程
B. 部署服務
C. 文字視覺化
D. 資料清理
**正確答案:** A
97. Triton 支援的模型格式不包括?
A. ONNX
B. TensorFlow SavedModel
C. TorchScript
D. JPEG
**正確答案:** D
98. NVIDIA DGX 伺服器主要用途?
A. 個人電腦使用
B. 高效能 AI 訓練與推論
C. 只做資料庫
D. 影像渲染
**正確答案:** B
99. 在 LCEL 管線中可使用的組件包括?
A. RunnableLambda、OutputParser、ParallelChain
B. API Key
C. CUDA Driver
D. CSV Parser Only
**正確答案:** A
100. LLM Agent 常用於?
A. 多步驟任務規劃與工具整合
B. 只生成文本
C. 資料庫建立
D. 單層分類
**正確答案:** A
---
### **101–110:深度學習核心**
101. 使用 DataLoader 的主要目的為何?
A. 可視化資料
B. 將資料分批供訓練使用,避免記憶體不足
C. 減少訓練資料
D. 訓練更快的模型
**答案:** B
102. 使用 GPU 訓練模型相較 CPU 的最大優勢?
A. 記憶體較少
B. 平行運算大幅加速
C. 可讀性好
D. 更易於除錯
**答案:** B
103. PyTorch 中 `torch.nn.Sequential` 用來?
A. 建立連續的層組合
B. 儲存模型檔
C. 做資料前處理
D. 寫訓練日誌
**答案:** A
104. 優化器 (Optimizer) 的角色是?
A. 決定網路架構
B. 更新權重以最小化損失
C. 監控 GPU 使用率
D. 轉換資料格式
**答案:** B
105. 活化函數 ReLU 的優點?
A. 線性輸出,訓練速度快
B. 非線性,避免梯度消失
C. 可做降維
D. 提升精度但計算慢
**答案:** B
106. Gradient Clipping 的功能是?
A. 提升學習率
B. 限制梯度範圍,防止梯度爆炸
C. 減少資料量
D. 減少記憶體使用
**答案:** B
107. Softmax 函數常用於?
A. 二元分類
B. 多分類輸出概率
C. 降維
D. 聚類
**答案:** B
108. Loss 曲線若呈現震盪狀態,通常原因為?
A. 學習率過高
B. 學習率過低
C. 資料不足
D. 訓練步數過少
**答案:** A
109. L2 正則化的目的是?
A. 降低參數值,避免過擬合
B. 增加模型容量
C. 減少訓練時間
D. 改變學習率
**答案:** A
110. 模型過擬合時可嘗試?
A. 增加資料、正則化、Dropout
B. 提高學習率
C. 減少驗證集
D. 使用更深的模型
**答案:** A
---
### **111–120:Transformer 與 LLM**
111. Transformer 模型的最大特徵?
A. 無需序列順序
B. 平行運算,自注意力捕捉長距離依賴
C. 只用 CNN
D. 只能處理短文本
**答案:** B
112. BERT 與 GPT 的主要不同?
A. BERT 是編碼器、GPT 是解碼器
B. BERT 用於生成
C. GPT 用於分類
D. 相同
**答案:** A
113. Positional Encoding 的公式作用?
A. 為序列加權,保留位置資訊
B. 增強速度
C. 壓縮模型
D. 生成新詞
**答案:** A
114. Hugging Face 的 pipeline 可快速?
A. 部署 Web
B. 進行推論,如分類、QA
C. 壓縮資料
D. 降維
**答案:** B
115. Tokenization 的意義?
A. 建立詞典
B. 將句子切割為可處理的單元
C. 提高準確度
D. 減少資料
**答案:** B
116. BERT 常用於哪類任務?
A. 文本理解:分類、NER、QA
B. 圖像生成
C. 語音辨識
D. 強化學習
**答案:** A
117. Encoder-Decoder 架構的優勢?
A. 同時考慮輸入與輸出序列
B. 速度快於所有模型
C. 只能做分類
D. 不支援翻譯
**答案:** A
118. CLM(Causal Language Model)特徵?
A. 雙向
B. 單向自回歸,預測下一個 token
C. 只做分類
D. 不可微調
**答案:** B
119. 為什麼需要 \[CLS] token?
A. 用於段落分割
B. 作為分類向量
C. 調整溫度
D. 用於壓縮
**答案:** B
120. 在 QA 任務中,BERT 如何回答?
A. 自由生成句子
B. 從上下文中抽取起止位置
C. 用數字回答
D. 不支援
**答案:** B
---
### **121–130:NVIDIA 工具與框架**
121. cuDF 主要是?
A. GPU 加速的 Pandas
B. CPU 版本的 TensorFlow
C. 資料庫系統
D. 編輯器
**答案:** A
122. cuML 用來做?
A. GPU 加速 ML 演算法
B. 可視化
C. 語音辨識
D. 儲存模型
**答案:** A
123. cuGraph 特別適合?
A. 社交網路分析、最短路徑
B. 影像分類
C. 語音合成
D. 文本摘要
**答案:** A
124. RAPIDS 的目標?
A. 在 GPU 上端到端處理資料科學流程
B. 建立 Web 前端
C. 僅做視覺化
D. 文本清理
**答案:** A
125. Triton Server 功能?
A. 提供模型推論服務,可多模型並行
B. 訓練模型
C. 建立資料倉儲
D. 語音合成
**答案:** A
126. TensorRT-LLM 的主要優勢?
A. 推論效能提升
B. 訓練速度變慢
C. 資料分析
D. 前端框架
**答案:** A
127. NeMo 框架可應用於?
A. 語音、NLP、對話
B. 圖像渲染
C. 硬體測試
D. 遊戲設計
**答案:** A
128. LangChain 最主要功能?
A. 編排 LLM、建立多步鏈與代理
B. 資料視覺化
C. 資料庫管理
D. 安全測試
**答案:** A
129. LangGraph 特性?
A. 圖形化代理、多任務
B. 壓縮資料
C. 減少模型
D. 網頁前端
**答案:** A
130. NIM 代表?
A. NVIDIA Inference Microservices,微服務部署模型
B. 新演算法名稱
C. 資料可視化工具
D. 資料清理工具
**答案:** A
---
### **131–140:提示與生成**
131. Prompt Injection 風險是?
A. 惡意提示影響模型輸出
B. 增加速度
C. 資料壓縮
D. 改變權重
**答案:** A
132. Few-shot 提示時,示例作用?
A. 幫助模型理解任務格式
B. 加速訓練
C. 減少記憶體
D. 生成更長文本
**答案:** A
133. Zero-shot 與 Few-shot 差異?
A. Zero-shot 無示例,Few-shot 有少量示例
B. Zero-shot 更準確
C. Few-shot 不能學習
D. 完全相同
**答案:** A
134. LCEL 用於?
A. 定義鏈與代理的組合表達式
B. 改變學習率
C. 編輯資料
D. GPU 配置
**答案:** A
135. System Message 在代理中功能?
A. 控制整體角色與行為
B. 加速推論
C. 降低延遲
D. 壓縮檔案
**答案:** A
136. Pydantic 在 Prompt Pipeline 中?
A. 確保輸出符合預期結構
B. 調整學習率
C. 減少參數
D. 刪除資料
**答案:** A
137. Temperature=0 的影響?
A. 完全確定性輸出,無隨機性
B. 隨機性最大
C. 加速訓練
D. 無影響
**答案:** A
138. Top-k=5 代表?
A. 每次只在前 5 個最可能的 token 中選擇
B. 生成 5 段文本
C. 取 5 筆資料
D. 提高記憶體
**答案:** A
139. Chain-of-Thought 最適合?
A. 複雜推理、多步驟解題
B. 快速分類
C. 圖像生成
D. 部署
**答案:** A
140. RAG 提升 LLM 能力的原因?
A. 透過檢索加入外部知識,減少幻覺
B. 讓模型更快
C. 減少溫度
D. 降低成本
**答案:** A
---
### **141–150:評估與實務**
141. Precision 高、Recall 低的情況適合?
A. 醫療診斷高敏感度
B. 嚴格挑選正例,不漏錯誤答案
C. 需找出所有正例
D. 降低成本
**答案:** B
142. Recall 高代表?
A. 正例被抓得多
B. 正例被漏得多
C. 預測差
D. 不穩定
**答案:** A
143. AUC 越接近 1 表示?
A. 模型區分能力好
B. 模型差
C. 與 ROC 無關
D. 不穩定
**答案:** A
144. Hyperparameter Tuning 的目的?
A. 尋找最佳模型設定
B. 儲存模型
C. 減少資料量
D. 減少 GPU
**答案:** A
145. Confusion Matrix 提供什麼資訊?
A. 真陽性、假陽性、真陰性、假陰性
B. 模型大小
C. 記憶體使用
D. 網路延遲
**答案:** A
146. KNN 的工作原理?
A. 根據鄰近資料點投票分類或回歸
B. 建立深度網路
C. 文本生成
D. 壓縮資料
**答案:** A
147. DBSCAN 的核心參數?
A. ε (鄰域半徑) 和 MinPts
B. 學習率
C. 迭代次數
D. 層數
**答案:** A
148. XGBoost 的主要特點?
A. 梯度提升樹模型,可平行化
B. 影像生成
C. 語音辨識
D. 隨機投票
**答案:** A
149. RAPIDS 與 Pandas 相比的優勢?
A. GPU 加速,大幅減少處理時間
B. 支援更多語言
C. 免費
D. 功能少
**答案:** A
150. 為何要將模型部署為微服務?
A. 易於維護、可擴展、快速更新
B. 降低準確度
C. 減少資料
D. 單一用途
**答案:** A
### **151–160:NVIDIA 硬體與平台**
151. NVIDIA DGX 系統的主要用途?
A. 辦公軟體
B. 高效能 AI 訓練與推論
C. 資料庫管理
D. 遊戲渲染
**答案:** B
152. NVIDIA H100 GPU 的特點?
A. 僅支援 2D 繪圖
B. 具備 Transformer Engine,加速 LLM 訓練
C. 僅適用影像處理
D. 僅支援 CPU
**答案:** B
153. NVIDIA Tensor Core 的用途是?
A. 高效矩陣計算,加速 AI 工作負載
B. 文本編碼
C. 資料視覺化
D. 瀏覽網頁
**答案:** A
154. NVIDIA NVLink 的作用?
A. 連接硬碟
B. 提供高速 GPU-to-GPU 互連
C. 調整顯示設定
D. 降低網路延遲
**答案:** B
155. Jetson Nano 的應用場景?
A. 僅作辦公
B. 邊緣 AI、機器人與嵌入式推論
C. 網頁前端
D. 資料備份
**答案:** B
156. NVIDIA Omniverse 的用途是?
A. 雲端遊戲串流
B. 協作 3D 模擬與虛擬世界平台
C. 單純的資料庫
D. 視訊剪輯
**答案:** B
157. CUDA 的主要功能?
A. 網路通訊協議
B. 平行運算平台與 API,加速運算
C. 檔案系統
D. 文書處理
**答案:** B
158. NVIDIA GPU Cloud (NGC) 的特色?
A. 僅提供照片儲存
B. 提供容器、模型與資源的雲端平台
C. 僅支援 Windows
D. 僅支援音樂播放
**答案:** B
159. NVIDIA BlueField 是什麼?
A. 晶圓製造設備
B. DPU (資料處理單元),加速資料中心網路與安全
C. 電源管理晶片
D. 螢幕控制器
**答案:** B
160. NVIDIA Grace CPU 的定位?
A. 僅做遊戲
B. 針對高效能運算與 AI 的伺服器級 CPU
C. 僅用於手機
D. 音樂播放器
**答案:** B
---
### **161–170:開發框架與工具**
161. NVIDIA RAPIDS 的核心目標?
A. 文件管理
B. GPU 加速資料科學工作流
C. 視覺設計
D. 語音合成
**答案:** B
162. cuDF 是?
A. 資料庫管理工具
B. GPU 加速的 Pandas 類資料框架
C. 網頁框架
D. 雲端硬碟
**答案:** B
163. cuML 的功能?
A. 資料視覺化
B. GPU 加速的機器學習函式庫
C. 檔案壓縮
D. 語音編輯
**答案:** B
164. cuGraph 的用途?
A. GPU 加速的圖形計算,如最短路徑、社群分析
B. 文本生成
C. 音訊串流
D. 前端 UI
**答案:** A
165. NVIDIA Triton Inference Server 可做什麼?
A. 訓練模型
B. 部署與管理推論服務
C. 文書處理
D. 網頁撰寫
**答案:** B
166. TensorRT 的主要用途?
A. 前端設計
B. 優化模型推論,減少延遲
C. 播放音樂
D. 資料備份
**答案:** B
167. NVIDIA NeMo 專注於?
A. NLP 與語音 AI 框架
B. 硬體設計
C. 資料清理
D. 前端開發
**答案:** A
168. NVIDIA Morpheus 平台適合?
A. AI 資安威脅偵測與資料中心安全分析
B. 遊戲設計
C. 影像壓縮
D. 影片轉檔
**答案:** A
169. NVIDIA Maxine 的應用是?
A. 影音會議強化與 AI 視訊處理
B. 文書處理
C. 硬體驅動
D. 檔案加密
**答案:** A
170. NVIDIA Broadcast 可做什麼?
A. 即時音訊與視訊增強,如降噪與虛擬背景
B. GPU 韌體更新
C. 資料加密
D. 文件管理
**答案:** A
---
### **171–180:多模態與生成式 AI**
171. NVIDIA Picasso 平台聚焦於?
A. 平面設計
B. 生成式 AI 內容創作 (影像、影片)
C. 硬體維護
D. 網路架構
**答案:** B
172. NVIDIA AI Enterprise 是?
A. 免費雲端硬碟
B. 企業級 AI 平台與工具套件
C. 手機應用
D. 遊戲引擎
**答案:** B
173. NVIDIA DGX Cloud 提供?
A. 本地存檔
B. 雲端 GPU 訓練與推論服務
C. 照片管理
D. VR 遊戲
**答案:** B
174. NVIDIA TAO Toolkit 的功能?
A. 即時編譯器
B. 簡化模型訓練與微調流程
C. 資料視覺化
D. 資料壓縮
**答案:** B
175. NVIDIA BioNeMo 主要用於?
A. 生物醫學與藥物發現的生成式 AI 平台
B. 遊戲渲染
C. 社交網路
D. 聲音合成
**答案:** A
176. NVIDIA Clara 的應用是?
A. 醫療影像 AI、智慧醫療
B. 教育平台
C. 影片編輯
D. 數據壓縮
**答案:** A
177. NVIDIA Isaac 平台適用於?
A. 機器人開發與模擬
B. 音樂播放
C. 軟體測試
D. 數據備份
**答案:** A
178. NVIDIA DRIVE 的主要領域?
A. 自動駕駛與車載 AI
B. 網路安全
C. 資料庫
D. 影像壓縮
**答案:** A
179. NVIDIA Holoscan 的用途?
A. 即時串流 AI 管線,醫療與工業應用
B. 遊戲開發
C. 影片製作
D. 資料庫管理
**答案:** A
180. NVIDIA DeepStream SDK 的功能?
A. 視訊分析與 AI 視覺串流
B. 語音合成
C. 檔案備份
D. Web 前端
**答案:** A
---
### **181–190:開發與部署實務**
181. NGC 容器的好處?
A. 可攜式、快速部署、包含預設環境
B. 只能在 Windows 用
C. 僅限手機
D. 僅支援 CPU
**答案:** A
182. CUDA 核心的運作單位稱為?
A. Warp
B. Tensor
C. Layer
D. Node
**答案:** A
183. NVIDIA GPU 驅動程式的功能是?
A. 提供硬體與作業系統間的介面
B. 建立資料表
C. 編寫 API 文件
D. 資料清理
**答案:** A
184. Tensor Core 在矩陣運算上與 FP32 的差別?
A. Tensor Core 更高吞吐量與混合精度支持
B. 相同速度
C. 僅支持整數
D. 無差異
**答案:** A
185. NVIDIA Nsight 工具用於?
A. 分析、除錯與效能調優 GPU 應用
B. 音樂串流
C. 資料備份
D. 網路管理
**答案:** A
186. GPU Memory Pooling 主要好處?
A. 提升記憶體使用效率,減少碎片
B. 增加模型精度
C. 降低溫度
D. 只能用於 CPU
**答案:** A
187. CUDA Stream 的功能是?
A. 非同步執行任務,提高效率
B. 同步鎖定
C. 壓縮資料
D. 可視化
**答案:** A
188. NVIDIA MIG 技術的用途?
A. 將單 GPU 切割為多個獨立實例
B. 減速 GPU
C. 提升記憶體容量
D. 調整網路延遲
**答案:** A
189. Triton 支援哪些模型框架?
A. TensorFlow、PyTorch、ONNX 等
B. 只能 TensorFlow
C. 只能 PyTorch
D. 僅文字處理
**答案:** A
190. NVIDIA Modulus 的特點?
A. 物理資訊神經網路 (PINN),用於模擬與科學計算
B. 遊戲引擎
C. 資料庫管理
D. 影像處理
**答案:** A
---
### **191–200:綜合應用**
191. NVIDIA Inception 計畫提供?
A. 新創支援、技術資源與曝光機會
B. 網頁託管
C. 財務貸款
D. 內容審核
**答案:** A
192. NVIDIA AI Workbench 的功能?
A. 簡化 AI 專案的設定、開發與部署
B. 網頁設計
C. 資料存儲
D. 音樂製作
**答案:** A
193. NVIDIA Fleet Command 是?
A. 部署與管理邊緣 AI 的 SaaS 平台
B. 車隊調度
C. 硬體製造
D. 訊息應用
**答案:** A
194. NVIDIA Base Command 用於?
A. 雲端 GPU 培訓與作業管理平台
B. API 設計
C. 文書管理
D. 網頁撰寫
**答案:** A
195. NVIDIA AI Foundations 的特色?
A. 提供定製化生成式 AI 模型與服務
B. 硬體測試
C. 音樂編輯
D. 瀏覽器
**答案:** A
196. NVIDIA JetPack 是?
A. Jetson 平台的軟體開發套件
B. 資料壓縮工具
C. 音訊播放器
D. 網路協議
**答案:** A
197. NVIDIA TensorRT-LLM 支援什麼功能?
A. 大語言模型推論最佳化、加速與記憶體優化
B. 語音播放
C. 編輯文本
D. 前端設計
**答案:** A
198. NVIDIA Deep Learning Institute (DLI) 的作用?
A. 提供 AI 與 HPC 線上課程與訓練
B. 硬體製造
C. 商業顧問
D. 音樂課程
**答案:** A
199. NVIDIA GPU Operator 用於?
A. 在 Kubernetes 環境中管理 GPU 資源
B. 資料庫備份
C. 音樂合成
D. 辦公軟體
**答案:** A
200. NVIDIA Clara Guardian 的用途?
A. 醫療物聯網 (IoT) 與醫院智慧應用平台
B. 文書處理
C. 影片剪輯
D. 測試硬體
**答案:** A