2020年10月17日,十三届全国人大常委会第二十二次会议表决通过修订后的《未成年人保护法》,并将于2021年6月1日正式施行。修订后的《未成年人保护法》专门增设的“网络保护”一章,成为此次法律修订的最大亮点,专章从政府、学校、家庭、网络产品和服务提供者不同主体出发,对网络素养教育、网络信息内容管理、个人信息保护、网络沉迷预防和网络欺凌防治等内容作了规定。
随着移动互联网的发展,未成年人利用手机接触网络的时间和频率都在增加,而移动社交平台的“不设防”也让孩子们接触有害信息的几率大大增加。目前,我国在网络游戏、网络视频领域均施行了防沉迷举措,但针对网络社交、网络文学等方面的防沉迷手段较少,相关领域也成了监管的真空地带。
在网络社交产品已成青少年社交生活的重要一环的前提下,对于社交产品的网络服务提供者来说,应该如何具体落实对未成年人的保护?SoulApp是近年来受到关注的Z世代社交产品之一,Soul公司内部对于青少年的安全保护措施也引起了人民网的关注,以下转载自人民网对SoulApp的报道《持续治理网络生态 未成年人网络保护更应关注社交软件安全》。
据SoulApp管理人员介绍,“Soul是一个记录生活和情绪,表达自我的平台。它鼓励真实表达,促成人与人之间的深度交流,以让用户降低孤独感,获得幸福感。”在制度上,Soul App专设青少年安全与体验问题的产品经理,实时监控社交平台系统中未成年人保护机制运行及未成年用户内容过滤流程的运转情况。
在准入机制方面,年龄为18岁以下的存量用户自动进入“青少年模式”,不可自行设置退出。若需退出该模式,用户需上传本人手持身份证照片,再由平台人工审核查看年龄是否达到18岁。通过此举措,Soul App避免了未成年用户借用他人身份信息更改个人年龄的可能。
在用户分层管理上,Soul对未成年用户与成年用户进行严格分割,规避成年用户骚扰未成年的可能。包括不对未成年用户开放“恋爱铃”、“脸基尼匹配”等的入口,仅保留“灵魂匹配”功能,且在具体功能中设定未成年仅能匹配到未成年用户。
在用户内容发布层面,未成年发布的内容除需经过系统过滤,还要由经过“未成年人保护”相关内容培训的审核人员进行单独审核。
申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!