未成年人的健康成长是关乎国家和民族未来的重大议题。作为“互联网原住民”,网络已经渗入到当代未成年人生活的方方面面,如何保障未成年人安全用网,是互联网企业避不开的重点问题。Soul作为新型社交平台,拥有庞大的年轻用户群体,为了保障未成年人社交安全,Soul持续推进未成年人安全社交专项工作,并取得了阶段性成效。
Soul自成立以来,始终把年轻人网络安全作为重中之重,Soul积极响应有关部门提出的网络安全问题及其他潜在风险,坚决遏制不良行为对网络环境的负面影响,同时关注未成年人用户网络安全,通过不断完善身份认证、防沉迷、隐私保护等措施,构建全面的未成年人网络保护体系。在2024年第二季度,Soul对未成年用户识别模型进行了重要迭代,从单一消息识别扩展到复杂场景下的多维度识别,显著提高了识别潜在未成年用户的能力。
目前,Soul平台不允许18岁以下的用户注册账号,对于可能存在的少数未成年存量用户,Soul App构建了包括身份认证、年龄识别、18岁以下年龄限制、防沉迷系统、青少年模式、正能量内容池、隐私保护等在内的未成年保护体系和有效的举报系统,迅速识别并引导这些账号切换到专为青少年设计的"青少年模式",保障平台内可能存在的极少存量未成年人上网安全。
此外,Soul还迭代未成年识别模型,由单条消息识别拓展至复杂场景多垂类识别,大幅度识别潜在的未成年用户;强制注销不满14岁低龄未成年用户,进一步优化青少年模式;针对未成年用户活跃情况,将青少年模式中“今日自闭”功能生效时长延长至7天。
在数据方面,第二季度Soul推出了40多项未成年识别和保护策略,这些策略在识别虚假成年人身份方面取得了高达98.0%的贡献率,进一步证明识别策略的有效性和精确性。
在未来,Soul将持续为未成年人构建一个更加安全和健康的网络环境。守护未成年人能够在网络空间中健康成长。此外,Soul也将坚持严惩网络不良行为,守护广大用户社交体验。
免责声明:市场有风险,选择需谨慎!此文来源网络仅供参考,不作买卖依据。