技术世界人工智能消息网络安全

中国发布类人人工智能系统监管规则草案

中国“类人AI规则”本周引发关注:国家网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向社会征求意见;与此同时,中国已在2025年9月起实施AI生成内容强制标识要求,推动“可识别、可追溯”的治理框架。​

发生了什么:谁在做、做什么、何时何地

国家互联网信息办公室(国家网信办)在官方网站公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,对“拟人化互动服务”提出系统性管理要求,并向社会公开征求意见。​
多家公开报道指出,此次征求意见期截至2026年1月25日,意味着相关企业、研究机构与公众可在窗口期内提交修改建议。​
该举措发生在中国强化生成式AI与合成内容治理的大背景下:2025年9月1日起,中国已实施AI生成内容标识规则,要求对AI生成/合成的多媒体内容进行显性或隐性标注。​

“拟人化互动服务”指什么

从公开信息看,征求意见稿瞄准的是具备“类人沟通”“人格化表达”“情感陪伴”等特征的AI服务形态,覆盖文字、图片、音频、视频等多模态交互,并强调其对用户心理与行为可能产生的持续影响。​
这类产品在市场上常被称为“AI陪伴”“数字人”“拟人化聊天机器人”等,其核心卖点往往不是单纯的信息检索,而是模拟人的语气、性格与情绪反馈。​

监管为何聚焦“类人化”

公开报道将监管关注点指向两类风险:一是“过度沉浸、依赖甚至成瘾”的使用风险;二是情绪操控、诱导消费或不当内容对未成年人及脆弱人群的影响风险。​
在这一逻辑下,监管不只看“AI生成了什么”,也看“AI如何与人建立关系、如何影响人的决策与情绪”。​

征求意见稿的核心要求(公开摘要层面)

从已披露的公开摘要与报道梳理,征求意见稿对提供者提出了更强的“全流程责任”与“风险处置义务”,尤其强调对沉迷、极端情绪等状态的识别与干预。​
相关报道指出,规则要求服务提供者进行提醒与干预,避免用户过度使用,并在识别到疑似成瘾或异常情绪状态时采取措施。​
此外,公开信息也将其与算法治理、数据安全、个人信息保护等既有合规框架相衔接,强调企业需建立可审计的安全管理体系。​

重点条款方向一览

监管方向 公开信息显示的要求重点
沉迷与依赖治理 提醒理性使用;发现疑似沉迷或过度依赖时应干预处置。 ​
情绪风险处置 识别用户情绪与依赖程度;出现极端情绪等情形需采取措施。 ​
安全责任与内控 强调全生命周期安全责任,建立算法与安全管理机制。 ​
规模化触发义务(部分中文报道提及) 有报道提到达到一定用户规模(如注册用户/活跃用户阈值)可能触发报备或材料提交。 ​
内容红线与合规底线 公开信息强调不得生成、传播危害安全或侵害用户身心健康等内容。 ​

与“AI生成内容标识”规则如何合并理解

“拟人化互动服务”征求意见稿主要治理的是交互机制与产品形态(尤其是情绪陪伴、人格化输出),而AI生成内容标识制度主要治理的是内容传播层面的透明度与可追溯性。​
根据公开信息,中国的AI生成内容标识制度要求对AI生成/合成的文本、图片、音视频、虚拟场景等进行标识,并通过显性标注与机器可读信息等方式提升识别能力。​
因此,两套制度叠加后,行业面临的将是“双重合规”:既要让用户知道“这是不是AI生成”,也要确保“类人AI如何与用户互动”在安全边界内运行。​

对企业与平台意味着什么

对开发“AI陪伴”“数字人”产品的公司而言,合规重点可能从传统的内容过滤延伸到产品设计:包括使用时长提示、风险识别阈值、人工介入机制、未成年人保护等“内建式安全”能力。​
对社交平台与内容分发平台而言,AI内容标识规则已在2025年9月生效,平台需要建立相应的产品能力与流程,确保合成内容具备可见标识或可机读标识,从而降低误导风险与治理成本。​
此外,由于“拟人化互动”可能涉及对用户状态的推断与处理,企业还需更谨慎地处理个人信息与数据安全问题,以满足监管对数据与算法治理的总体要求。​

国际对照:透明度已成共同趋势

在国际范围内,“告知用户正在与AI交互”“对合成内容进行披露”正在成为监管共识之一。​
欧盟《AI法案》设置了透明度义务,要求在特定场景下向用户明确提示其正在与AI系统交互,并对某些AI生成或被操纵内容提出披露要求。​
欧盟委员会也已发布信息说明《AI法案》于2024年8月1日生效,体现欧洲推动可信AI的政策方向。​

最后想说的话

第一,市场将关注征求意见结束后文本是否会进一步细化“沉迷识别与干预”的可操作标准,以及对未成年人保护提出哪些更明确的产品要求。​
第二,行业将关注监管如何与既有的AI内容标识制度联动执行,包括平台审核、产品上线评估、抽检与问责机制如何落地。​
第三,对普通用户来说,短期变化是“AI生成内容更可识别”,中期变化则可能是“更强的类人AI安全护栏”,尤其在情绪陪伴与高粘性交互场景中更明显。​