未成年人作为国家的未来、民族的希望,保护未成年人网络安全,助其健康成长,是每个社会份子义不容辞的责任。Soul作为新型社交平台,主动承担社会责任,通过多项手段准确识别未成年人,提供坚实网络安全保障。
自成立以来,Soul就积极响应政府及相关部门关于网络安全的指导和要求,坚决采取措施减少不良行为对网络环境的破坏性影响,作为一个广受年轻用户青睐的社交互动平台,Soul始终将未成年人网络保护作为一项系统性工作,通过多措并举保障未成年用户的网络安全,致力于打造一个全面、有效的未成年人网络保护机制,促成更加清朗、健康的网络环境。
在预防措施方面,Soul禁止未满 18 岁的用户注册账号,并对现有的极少数存量未成年用户开启青少年模式。在此基础上,Soul运用多重认证机制,结合内容分析、设备识别和用户反馈等手段,加强常规模式下对未成年用户的检测和识别。
在巩固青少年预防措施的基础上,对于现有的极少数存量未成年用户,Soul进一步提升其网络安全保护,创造一个安全、清洁、有益的在线空间。Soul不断强化对未成年用户隐私的保护,在青少年模式下上线包括“隐私防护”和“陌生会话拦截”在内多项措施,以预防潜在的网络暴力和骚扰。
此外,Soul也不断地进行网络环境的整治,采取了包括不良内容拦截和处理、风险内容提示以及未成年人保护专项等多项保护举措,增强对未成年用户的网络内容安全守护。
在Soul App生态安全中心发布《 2024 年第三季度生态安全报告》中显示, 2024 年第三季度,Soul推出了超过 50 项针对未成年用户的识别和保护策略,相关策略在识别虚假成年人身份方面取得高达98.6%的成功率,证明其有效性和比较准确度。同时,平台日均处置 600 余条可能危害未成年人的内容,守护其网络安全,助力健康成长。Soul的这些努力不仅显示了平台在技术迭代和策略创新方面的能力,也体现了平台对未成年人网络安全的重视。
长期以来,Soul始终加强未成年网络安全防护机制,为广大未成年人的成长营造良好的网络环境。在未来,Soul仍将继续开展未成年人专项治理工作,通过技术识别和保护未成年人,同时持续完善正能量内容,促进青少年健康社交。