马来西亚通讯部长法米在国会书面答复中正式透露,政府正依据 2025 年网络安全法令的 10 条附属法规,草拟社交媒体监管新规,核心内容包括禁止未满 16 岁青少年使用脸书、TikTok 等社媒平台,并要求平台向未满 18 岁用户提供适宜内容,此举旨在全面强化儿童在线安全保护,应对日益突出的网络风险问题。

AI制图
法米强调,新规制定的核心目标是为所有用户构建更安全的网络环境,尤其要守护儿童、家庭及弱势群体的权益。根据草拟方案,社媒平台需落实多项强制性要求:建立严格的年龄验证机制,有效拦截未满 16岁用户注册及访问;提供完善的家长监控功能与个性化设置选项,方便监护人管控青少年上网行为;同时需定期提交在线安全执行计划,确保完全遵守马来西亚网络安全法的各项规定。
这一政策并非孤立举措,而是马来西亚近年持续收紧网络监管的重要一环。为强化内容管控与算法责任,马来西亚已实施社媒平台营运执照制度,自今年 1 月 1 日起,用户规模达 800 万以上的社媒及即时通信平台,必须向通讯部申请执照方可运营。此前在去年 12 月,马来西亚国会已通过 2024 年网络安全法案,授权政府主动监管社媒内容,要求平台及时删除仇恨言论、儿童剥削素材、虚假信息等有害内容,对未履行责任的平台将采取严厉执法行动。此外,多媒体委员会还发布了专门的行为准则,明确平台在青少年保护方面的具体义务。
此次新规的制定充分借鉴了国际经验,法米明确表示马来西亚将参考澳大利亚等国的社媒管制模式与实施成效。值得关注的是,澳大利亚将于 12 月 10 日正式生效针对未满 16 岁青少年的社媒禁令,成为全球首个实施此类政策的国家,违反规定的平台将面临最高 4950 万澳元(约 4172 万新元)的巨额罚款,受影响平台包括脸书、Instagram、TikTok、Twitch 等主流应用。不过澳大利亚的政策也引发部分争议,视频平台优兔质疑,未成年人无账户浏览时无法使用过滤功能,可能面临更不安全的网络环境,但澳大利亚通讯部长回应称,这正是平台需要解决的内容管控问题。
马来西亚的这一政策方向获得了广泛社会支持,益普索集团今年 9 月的调查显示,超七成受访民众支持对儿童使用社交媒体设置年龄限制。近年来,随着 “人手一机低头看屏幕” 的现象在马来西亚各年龄层蔓延,青少年面临的网络霸凌、诈骗、不良内容侵蚀等风险持续上升,成为政府重点关注的社会问题。作为东南亚互联网普及度较高的国家,马来西亚社交媒体用户群体庞大,仅 Instagram 平台在 2024 年 12 月的用户规模就达 1577.77 万,其中 18-24 岁用户占比 30.4%,25-34 岁用户占比 36.8%,青少年用户群体的保护已成为亟待解决的民生议题。
目前,马来西亚社媒监管新规的具体实施时间及处罚细则尚未公布。业内分析指出,新规的落地将面临年龄验证技术落地、跨境平台监管协同、政策执行力度平衡等多重挑战。如何在保护青少年权益与保障信息自由、促进数字经济发展之间找到平衡点,成为马来西亚政府后续需要重点攻克的课题。