2026-05-07
近日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》,办法将于7月15日起施行。
人工智能(AI)的拟人化互动,在缓解老年人孤独感、提供个性化适幼陪伴、拓展文化传播形态等方面展现出独特潜力。然而,其带来的挑战也愈发凸显:从技术逻辑看,人工智能拟人化互动的“情感表达”并非真实共情,本质上是基于算法和大数据的智能生成结果;从商业逻辑看,为最大化用户留存,算法往往被设计为扮演“完美伴侣”,极易诱导用户产生亲密依赖,并暴露情感需求、价值取向、心理健康状况等信息。这不仅侵蚀用户情感自主性,冲击现实人际关系,还可能侵犯人格尊严和隐私等权利乃至危害国家信息安全。
法治是防范技术风险、引导其健康发展的重要基石。《人工智能拟人化互动服务管理暂行办法》所体现的包容审慎、分类分级监管理念,精准把握了发展与规范之间的平衡。它既划出了清晰红线,严禁危害国家安全和社会稳定的内容,压实服务提供者的安全主体责任;也预留了创新空间,鼓励在文化、养老等民生领域的正向探索。这种“底线守护”与“高线引领”相结合的思路,变被动应对为主动施治,体现了前瞻性的治理智慧。
让人工智能拟人化互动服务行稳致远,还需在实践层面深化认识。技术的“拟人”终究不是“真人”,无论互动如何逼真,其本质仍是算法与数据,缺乏人独有的情感温度、道德判断与社会责任感。因此,所有服务的技术设计与应用,都必须坚持以增进人的福祉为根本价值判断,面对“拟人化AI”,要防止技术应用“替代社会交往、控制用户心理、诱导沉迷依赖”。
有效的治理必然是协同的治理。人工智能的跨界融合特性,决定了其治理需要网信、发改、工信、公安、市场监管等多部门形成监管合力,还需要和企业的伦理自律、行业的规范标准、社会的监督评议与用户素养的提升等联动。正在探索中的人工智能沙箱安全服务平台,正是这种协同治理理念的实践,旨在通过可控环境提前发现并化解风险。
展望未来,拟人化互动将更深度融入教育、医疗、心理支持等专业领域。这要求我们的治理思维必须具备更强的前瞻性与适应性。法律规范需随技术迭代而动态调适,人机交互的伦理框架需在开放对话中持续完善,公众的数字素养也需同步提升。我们不仅要筑牢“不能做什么”的底线,更要思考并引导“应当如何更好地做”,将技术资源导向解决社会痛点、促进公平正义、丰富人的精神世界的正确目标。(瞭望新时代)
特别声明:本站转载或引用之图文若侵犯了您的合法权益,请与本站联系,本站将及时更正、删除。版权问题及网站合作, 请通过瞭望新时代邮箱联系:lwxsd@liaowanghn.com
推荐阅读 换一换 