|
2026年3月6日,英国认可机构(UKAS)与德国认可机构(DAkkS)联合发布《合格评定中人工智能技术的应用》技术公告,为获得UKAS和DAkkS认可的合格评定机构(CABS)负责任地开发、部署和使用人工智能(AI)技术,提供了统一的指导性框架。
本次发布的联合技术公告为信息指引类文件,不新增或额外设定认可相关要求,旨在帮助合格评定机构识别、适配现有认可体系中与AI应用相关、以技术中立为原则制定的各项要求,且需与对应认可领域的现行标准同步使用。
首先,公告明确了合格评定机构在引入AI技术时的强制告知义务。公告明确AI技术的引入与落地需向认可机构申报重大变更。要求机构在对设备、资源、流程等作出重大变更时,尽早履行告知义务。申报内容需包含三个方面的信息:一是AI系统的简要说明,包括功能用途、训练数据/知识库、技术实现路径。二是AI系统在合格评定全流程中的具体应用环节。三是机构对AI系统的依赖程度,具体分为纯行政支持、咨询或决策辅助、决策权限委托三类场景。
其次,公告确立了AI应用环境的敏感性评估核心框架。公告明确需结合AI系统的技术特性、具体用例与应用场景,开展针对性评估,以此判定对应标准条款的适用性与落地方式。评估需覆盖三大核心维度:第一,AI系统的技术类型,需从技术层面对系统进行分析,重点说明系统任务、数据/知识库、技术实现路径,明确其对标准条款适用性的影响。第二,AI系统在合格评定流程中的应用场景,需清晰区分不影响评定决策的行政类任务,与直接影响评定结果的核心流程应用。第三,机构对AI系统的依赖程度,该维度直接决定合规要求的严格程度、人工监督机制的设置标准及系统验证的深度,依赖度越高,配套的安全保障机制越需严格。
最后,公告明确了AI应用的合规实施路径,并划定核心监管红线。在合规实施层面,要求合格评定机构以适用的认可标准(如ISO/IEC 17025、ISO/IEC 17024、ISO/IEC 17065等)为核心,结合AI系统的特性、应用环节及依赖程度,开展条款适用性分析,从组织流程与技术保障两个层面落实合规要求,包括建立人工监督机制、完善人员能力培训、配套数据安全与系统验证措施等。
在监管红线层面,公告明确两项要求:一是在当前认可框架下,合格评定决定的最终权限不得委托给AI系统。二是若现行标准明确应由具备资质的人员作出决定,那么以自主AI决策系统替代相关人员履职的行为将被严格禁止。合格评定机构需在AI技术落地前,提前识别此类约束,确保AI应用始终符合认可框架要求。
以下为您整理的文档内容:
[size=150]AI Bulletin_DAkkS_UKAS_English.pdf
Technical Bulletin:The use of Artificial Intelligence (AI) technologies in accredited conformity assessment
1. 引言 (Introduction)
该联合技术公报由 UKAS(英国认可服务)和 DAkkS(德国认可委员会)共同制定,旨在为合格评定机构 (CABs) 在业务活动中负责任地开发、部署和使用人工智能 (AI) 技术和工具提供指导。
目的:并非建立新的认可要求,而是帮助 CABs 识别和理解可能以技术无关方式制定的现有适用要求。
原则:现有要求保持不变,本文件应与相关认可标准并行阅读。
2. 引入 AI 时的通知义务 (Obligation to inform)
CABs 在引入 AI 技术时,必须尽早通知其国家认可机构 (NAB),以便审查潜在影响。通知内容应至少包括:
- AI 系统的简要描述(功能、训练数据/知识、实施方法等);
- AI 系统在功能方法/合格评定过程中的使用位置;
- 对 AI 系统的依赖程度(如纯行政支持、建议/决策支持、或尝试将决策委托给 AI)。
3. 情境敏感性 (Context sensitivity)
由于 AI 是通用技术,无法制定适用于所有情况的统一要求,必须进行情境敏感评估。评估时至少需考虑以下三个方面:
3.1 AI 系统类型 (Type of AI system)
需在技术层面分析并描述 AI 系统,参考 ISO/IEC 22989 标准。
- 应用领域:系统在 CAB 流程中的特定功能(如自动化文档审查与预测性维护的风险不同);
- 训练数据/知识:数据的性质(结构化或非结构化)影响处理复杂性、潜在偏差及保密性要求;
- 实施方法:使用的算法(如神经网络、决策树)影响可解释性,持续学习模型可能需要更严格的验证。
3.2 在合格评定过程中的使用 (The use of the AI system within the process)
任务性质决定了风险和要求:
- 不影晌符合性决定的行政任务(如翻译邮件)风险较低;
- 必须区分行政支持与融入功能方法(如翻译技术文档)的区别。
3.3 对 AI 系统的依赖程度 (Degree of reliance)
依赖程度决定了要求的严格性,可分为三类:
- 纯行政支持(风险最低);
- 建议或决策支持功能(需要严格的人类能力和系统验证);
- 尝试将决策委托给 AI(重要提示:根据当前认可框架,最终符合性决定绝不能委托给 AI 系统)。
4. 程序视角:如何识别和情境化相关要求 (Procedural perspective)
CABs 应进行条款对条款分析,将系统特征与标准要求交叉引用:
- 确定适用的 Level 3 标准(如 ISO/IEC 17025 等);
- 分析 AI 系统的特征(技术特征、在功能方法中的角色、依赖程度);
- 识别触发的具体要求(如保密性、外部提供管理、技术资源验证等);
- 实施组织过程或技术保障措施(如人工监督机制、结果交叉验证、人员培训等)。
若 Level 3 标准明确将认证决策责任分配给有能力的人员,则用自主 AI 系统替代该人员的做法与标准不兼容。
5. 结语
CABs 必须尽早识别这些硬性约束,确保其采用 AI 的方式在适用的认可框架范围内。
作者:UKAS & DAkkS
原文名:AI Bulletin_DAkkS_UKAS_English.pdf |