AI安全技术对策指南

日本总务省于3月27日发布了面向AI开发者和提供者的《确保AI安全的技术对策指南》。

该指南的发布基于2025年6月内阁决议的《实现数字社会重点计划》。总务省结合自2025年9月起举行的网络安全工作组AI安全分科会的讨论及公众意见征集,制定了本指南,旨在展示确保AI安全的技术对策实例。最终版本于2025年12月完成意见征集后正式公布。

指南内容参考了总务省与日本经济产业省共同制定的《AI企业指南》中的共通指针,以及AI安全研究机构(AI Safety Institute,AISI)发布的《AI安全评估视角指南》中提出的“AI安全关键要素”和“AI安全评估视角”,重点聚焦AI的“安全保障”。目标读者为《AI企业指南》中定义的“AI开发者”(开发AI系统的企业)和“AI提供者”(将AI系统集成于应用等服务中并提供的企业)。

本指南涵盖的AI类型为大型语言模型(LLM)及包含LLM组件的AI系统。鉴于AI代理技术仍处于快速发展阶段,且其特有的威胁和对策尚难以稳定确定,故暂不纳入本指南范围。

指南整理了针对“防止因非法操作导致机密信息泄露、AI系统被意外修改或停止”的技术对策示例。具体威胁包括:通过对LLM输入进行篡改以产生非法输出的“提示注入攻击(Prompt Injection Attack)”,以及通过大量复杂输入使AI系统负载过重的“拒绝服务攻击(DoS攻击)”。指南主要围绕这两类威胁展开详细对策说明。