不良信息充斥网络 堵疏结合多方共治
约束内容上线时间 营造清朗网络空间 实际上,在如何限制未成年人使用网络上,相关部门采取了诸多措施,包括实名认证、限制时间、一键禁玩等。国家互联网信息办公室将网络的内容管理由被动变为主动,在2019年统筹指导21家主要网络视频平台上线了“青少年防沉迷系统”。 不过,也有业内人士称,虽然一些网络视频平台推出了青少年模式,对浏览时间作出限制,有些直播平台提示关闭打赏功能等,但大多数网络视频平台都是通过密码进入和退出,并未触及实名认证程序。如果监护人不能尽到监护责任,未成年人就有可能通过密码解锁“成年模式”。 中国消费者协会于2019年发布的《青少年近视现状与网游消费体验报告》显示,在体验的50款游戏中,超过1/3的强制实名游戏未启用未成年人登录时段监护机制。17款强制实名游戏产品中,12款在使用未成年人身份实名登录后持续游戏的情况下出现过健康提醒,有两款游戏在持续游戏3个半小时的过程中一直未出现健康时长提醒信息。同时,使用12岁以下未成年人身份登录进行测试时,仅有10款在当日游戏时长累计1小时后出现了强制退出;使用13岁至17岁未成年人身份登录测试时,也只有10款出现了健康时长提醒和累计游戏时长达2小时强制退出。 正因为如此,《规定》进一步要求建立用户账号信用管理制度,要求网络信息内容服务平台根据用户账号的信用情况提供相应的服务。 北京师范大学法学院网络与智慧社会法治研究中心主任刘德良认为,网络平台应用算法技术推荐延伸内容的算法,不能直接照搬于青少年专属内容领域,“推荐给青少年使用的功能和浏览的内容,应该与科技发展同步。平台要专门设计青少年专属内容的算法,投入更多的人力物力,付出更大的运营管理成本,营造更适合青少年健康成长的清朗的网络空间”。 在刘德良看来,关键是要找到未成年人网络保护问题的根源,对症下药。未成年人涉及的网络保护领域有游戏、视频等领域,其中游戏是未成年人网络保护的主要领域。从内容来说,游戏领域涉及暴力、色情等信息;从上线时间来说,游戏容易让人沉迷于网络。因此,需要在内容及上线时间两方面进行必要的约束。 (法制日报) |