NIST AI 風險管理框架 (AI RMF 1.0)
美國國家標準與技術研究院(National Institute of Standards and Technology,NIST)於2023年1月26日發布了人工智能風險管理框架(AI Risk Management Framework,AI RMF 1.0)。這個框架旨在幫助組織更好地管理與人工智能相關的風險,提高AI系統的可信賴性。
框架概述
NIST AI RMF 是一個自願性框架,旨在改善組織在設計、開發、使用和評估AI產品、服務和系統時納入可信賴性考量的能力。
可信賴AI的特性
根據NIST的框架,可信賴的AI系統應具備以下特性:
Valid & Reliable (有效性和可靠性):Validation is the confirmation, through the provision of objective evidence, that the requirements for a specific intended use or application have been fulfilled透過提供客觀證據,確認特定預期用途或應用的要求已滿足