中国发布类人人工智能系统监管规则草案
中国“类人AI规则”本周引发关注:国家网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向社会征求意见;与此同时,中国已在2025年9月起实施AI生成内容强制标识要求,推动“可识别、可追溯”的治理框架。
发生了什么:谁在做、做什么、何时何地
国家互联网信息办公室(国家网信办)在官方网站公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,对“拟人化互动服务”提出系统性管理要求,并向社会公开征求意见。
多家公开报道指出,此次征求意见期截至2026年1月25日,意味着相关企业、研究机构与公众可在窗口期内提交修改建议。
该举措发生在中国强化生成式AI与合成内容治理的大背景下:2025年9月1日起,中国已实施AI生成内容标识规则,要求对AI生成/合成的多媒体内容进行显性或隐性标注。
“拟人化互动服务”指什么
从公开信息看,征求意见稿瞄准的是具备“类人沟通”“人格化表达”“情感陪伴”等特征的AI服务形态,覆盖文字、图片、音频、视频等多模态交互,并强调其对用户心理与行为可能产生的持续影响。
这类产品在市场上常被称为“AI陪伴”“数字人”“拟人化聊天机器人”等,其核心卖点往往不是单纯的信息检索,而是模拟人的语气、性格与情绪反馈。
监管为何聚焦“类人化”
公开报道将监管关注点指向两类风险:一是“过度沉浸、依赖甚至成瘾”的使用风险;二是情绪操控、诱导消费或不当内容对未成年人及脆弱人群的影响风险。
在这一逻辑下,监管不只看“AI生成了什么”,也看“AI如何与人建立关系、如何影响人的决策与情绪”。
征求意见稿的核心要求(公开摘要层面)
从已披露的公开摘要与报道梳理,征求意见稿对提供者提出了更强的“全流程责任”与“风险处置义务”,尤其强调对沉迷、极端情绪等状态的识别与干预。
相关报道指出,规则要求服务提供者进行提醒与干预,避免用户过度使用,并在识别到疑似成瘾或异常情绪状态时采取措施。
此外,公开信息也将其与算法治理、数据安全、个人信息保护等既有合规框架相衔接,强调企业需建立可审计的安全管理体系。
重点条款方向一览
| 监管方向 | 公开信息显示的要求重点 |
| 沉迷与依赖治理 | 提醒理性使用;发现疑似沉迷或过度依赖时应干预处置。 |
| 情绪风险处置 | 识别用户情绪与依赖程度;出现极端情绪等情形需采取措施。 |
| 安全责任与内控 | 强调全生命周期安全责任,建立算法与安全管理机制。 |
| 规模化触发义务(部分中文报道提及) | 有报道提到达到一定用户规模(如注册用户/活跃用户阈值)可能触发报备或材料提交。 |
| 内容红线与合规底线 | 公开信息强调不得生成、传播危害安全或侵害用户身心健康等内容。 |
与“AI生成内容标识”规则如何合并理解
“拟人化互动服务”征求意见稿主要治理的是交互机制与产品形态(尤其是情绪陪伴、人格化输出),而AI生成内容标识制度主要治理的是内容传播层面的透明度与可追溯性。
根据公开信息,中国的AI生成内容标识制度要求对AI生成/合成的文本、图片、音视频、虚拟场景等进行标识,并通过显性标注与机器可读信息等方式提升识别能力。
因此,两套制度叠加后,行业面临的将是“双重合规”:既要让用户知道“这是不是AI生成”,也要确保“类人AI如何与用户互动”在安全边界内运行。
对企业与平台意味着什么
对开发“AI陪伴”“数字人”产品的公司而言,合规重点可能从传统的内容过滤延伸到产品设计:包括使用时长提示、风险识别阈值、人工介入机制、未成年人保护等“内建式安全”能力。
对社交平台与内容分发平台而言,AI内容标识规则已在2025年9月生效,平台需要建立相应的产品能力与流程,确保合成内容具备可见标识或可机读标识,从而降低误导风险与治理成本。
此外,由于“拟人化互动”可能涉及对用户状态的推断与处理,企业还需更谨慎地处理个人信息与数据安全问题,以满足监管对数据与算法治理的总体要求。
国际对照:透明度已成共同趋势
在国际范围内,“告知用户正在与AI交互”“对合成内容进行披露”正在成为监管共识之一。
欧盟《AI法案》设置了透明度义务,要求在特定场景下向用户明确提示其正在与AI系统交互,并对某些AI生成或被操纵内容提出披露要求。
欧盟委员会也已发布信息说明《AI法案》于2024年8月1日生效,体现欧洲推动可信AI的政策方向。
最后想说的话
第一,市场将关注征求意见结束后文本是否会进一步细化“沉迷识别与干预”的可操作标准,以及对未成年人保护提出哪些更明确的产品要求。
第二,行业将关注监管如何与既有的AI内容标识制度联动执行,包括平台审核、产品上线评估、抽检与问责机制如何落地。
第三,对普通用户来说,短期变化是“AI生成内容更可识别”,中期变化则可能是“更强的类人AI安全护栏”,尤其在情绪陪伴与高粘性交互场景中更明显。
