


人工智能固有风险量表 (AI Inherent Risk Scale, AIIRS )提供了一种结构化的方法,通过根据三个循证标准评估使用生成式人工智能 (GenAI) 的任务,来建立总体固有风险分类,从而对任务进行分类。AIIRS将任务分为低、中、高三个固有风险等级。分类依据三个标准:认知依赖性、可验证性和错误后果,这三个标准定义了任务对 GenAI 的依赖程度和重要性。这些标准考虑了 GenAI 预期提供信息的程度、输出结果可独立验证的程度以及任何潜在错误的严重性。AIIRS为评估 GenAI 辅助任务的固有风险提供了一致且可靠的基础。

固有风险(Inherent RIsk)是指在管理层没有采取任何内部控制或风险管理措施进行规避、转移或缓解的情况下,某一活动、流程或实体因其自身性质、所处的环境及所处理事务的复杂性,而固有的、天然存在的风险暴露水平。简单来说,我们可以将固有风险理解为一种与生俱来的风险。这种风险是客观存在的,不考虑任何防范措施(如规章制度、防火墙、人工审核等)的有效性。人工智能的固有风险是指在未采取任何技术防护栏、伦理审查或治理机制干预的情况下,人工智能系统(尤其是基于机器学习的系统)因其算法原理、数据依赖性及自主决策特性,在设计、开发、部署和运营过程中天然存在的潜在危害或损失的可能性。AI 内在风险强调的是:如果我们把这个 AI 系统“裸奔”地放入真实世界,它本身可能造成多大的潜在危害?AIIRS 的开发背景AIIRS 的开发背景主要源于对生成式人工智能(GenAI)辅助任务进行一致且可辩护的风险评估需求。该量表与《澳大利亚高等教育标准框架》(HESF)相衔接。该框架要求教育机构识别并管理影响学术质量和诚信的风险。它的目的不是决定是否应使用 GenAI,而是建立一个任务固有风险等级,以便在需要时进行主动管理。
三个核心评估标准开发者提出了三个基于证据的标准来评估任务:1. 认识依赖性(Epistemic dependence):衡量任务是否需要 AI 系统对世界的描述是准确的,才能使任务结果具有可用性。低依赖性任务仅依赖用户材料;高依赖性任务则要求 AI 提供的外部信息必须准确。2. 可验证性(Verifiability):衡量验证 GenAI 输出结果正确性的基础。该评估独立于后果之外。低风险(嵌入式验证)允许用户快速验证;高风险(无源验证)则需要专门的领域专家或外部调查。3. 错误后果(Consequences of error):衡量错误、误导或不完整的输出对决策、记录或结果的影响程度,特别是对任务之外的个人或群体的影响。
风险分类模型与等级定义AIIRS 采用最大值主导(max-dominant)分类模型。这意味着如果一个任务在任何一个准则上被评为高风险,其整体固有风险即为“高”,这种设计确保了风险管理的相称性。高风险 (HIGH)• 特征: 任务在认知依赖性、可验证性或错误后果中至少有一项表现出极高的敏感性。• 管理要求: 被归类为高风险的任务不得以当前形式进行。必须重新评估或设计,以降低固有风险或施加极其严格的控制。中风险 (MEDIUM)• 特征: 任务具有一定的复杂性和潜在影响,需要超过常规的关注。• 管理要求: 需要应用相称的控制措施来管理已识别的风险。这可能包括增加人工审核环节或限定使用范围。低风险 (LOW)• 特征: 认知依赖性低,结果易于验证,且错误产生的负面影响极小。• 管理要求: 仅需采取适合该任务及其环境的日常护理。
人工智能固有风险量表(AIIRS) 为组织提供了一个客观且深入的框架,用于剖析生成式 AI 任务的风险本质。人工智能的固有风险的研究,是“负责任的人工智能”或“人工智能治理”的基础和前提。通过聚焦于任务的认知需求、验证难度和潜在社会后果,AIIRS为管理人员、教职员工和学生提供了一套共同的语言和方法,用以在利用 AI 潜力的同时,确保学术质量与决策的稳健性。

在这里给您拜年啦!



