平时我们刷手机遇到的AI陪伴助手、虚拟情感好友,甚至给老人孩子提供陪伴的智能互动产品,今后将有明确的“行为规范”了。今年7月15日,《人工智能拟人化互动服务管理暂行办法》将正式施行。
严禁向未成年人
提供虚拟伴侣等服务
《办法》规定的“人工智能拟人化互动服务”是指,利用人工智能技术,向中华人民共和国境内公众提供的、模拟自然人人格特征、思维模式和沟通风格,且能开展持续性情感互动的服务。
而智能客服、知识问答、工作助手等不涉及持续性情感互动的服务,不属于此类拟人化互动服务,不适用该办法监管。
中国政法大学网络法学研究所所长李怀胜表示,这类服务通过模拟人类情感和沟通方式,很容易让用户产生非理性的依赖,削弱现实的社交能力,甚至可能被用于情感操控或者说诱导危险行为。因此为了填补监管空白,防范化解这类潜在风险,同时也是为了响应国家关于完善人工智能治理体系的战略部署,出台针对性的管理规范。
《人工智能拟人化互动服务管理暂行办法》还聚焦未成年人保护,从服务限制、身份识别到监护管控,给出了解决方案。
针对未成年人保护,《办法》作出明确规定:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意;要求建立未成年人模式,支持监护人管控使用行为、限制充值消费等。
全面保障用户数据的
控制权与隐私安全
针对人工智能拟人化互动“情感绑定、持续交互、易产生依赖”的特殊属性,《办法》从制度层面,填补了相关领域的治理空白。
在用户数据保护上,《办法》明确除法定情形或用户同意外,服务提供者不得向第三方提供用户交互数据,严格限制敏感个人信息用于模型训练,全面保障用户数据的控制权与隐私安全。
李怀胜表示,这些规定大大提升了用户隐私的保护力度,意味着企业不能随意将用户在聊天中透露出的敏感信息,比如说健康状况等,直接用于优化其大模型的训练。此外,《办法》还规定,提供者不得向第三方提供用户交互数据,除非有法律或者用户的明确同意,这也是为了保障用户对其个人信息的控制权。
据央视新闻客户端
