北京互联网法院对一起未成年人网络欺凌案件的判决,如同一记重锤,敲响了网络空间治理的警钟。在这起案件中,高中女生被同学编造黄谣视频传播,尽管造谣者因真诚悔过未被追责,但涉案网络平台却因未主动拦截侵权内容、收到投诉后未及时下架,最终被判赔偿精神损害抚慰金 8000 元。这一判决看似 “打破常规”,实则是法律对未成年人权益特殊保护原则的生动诠释,更向全社会传递了清晰的信号:在未成年人网络保护的赛道上,任何疏忽都将付出代价。
从 “通知删除” 到 “主动防御”,彰显法律逻辑的深层突破。长期以来,网络平台在侵权责任认定中遵循 “通知删除” 规则,即仅在接到权利人投诉后才需采取下架措施。然而,本案的判决突破了这一传统框架,明确指出平台对涉及未成年人的性谣言、隐私泄露等信息负有主动审查义务。北京互联网法院在判决中强调,涉案视频包含未成年人清晰面部特征和露骨低俗内容,平台完全可通过人脸识别、关键词过滤等技术手段识别并拦截,却放任其传播 3.5 万次。这一认定背后,是法律对平台责任的重新定位 —— 当信息主体为未成年人时,平台不再是中立的 “技术管道”,而是需承担更高注意义务的 “安全守护者”。
这一突破并非孤例。2024 年北京互联网法院审结的另一起案件中,法院同样认定平台对未成年人黄谣信息未履行主动审查义务,需承担连带责任。此类判决呼应了《未成年人保护法》的立法精神:平台不仅要 “亡羊补牢”,更需 “未雨绸缪”,通过技术升级和管理优化构建未成年人权益保护的 “防火墙”。
平台责任的时代重定义,技术能力与社会责任的双重绑定。本案中,平台被判担责的关键在于其技术能力与社会责任的脱节。根据《未成年人保护法》第六十六条,网信部门及其他相关部门需监督平台履行预防未成年人沉迷网络的义务,而平台的技术措施是实现这一义务的核心载体。涉案平台虽辩称已建立举报机制,但未能证明其采用了人脸识别、敏感内容自动筛查等技术手段。反观现实,主流平台完全有能力通过深度包检测(DPI)、人工智能图像识别等技术,对包含未成年人面部特征、性暗示词汇的内容进行实时监测。例如,某社交平台通过部署 “青少年模式”,可自动屏蔽涉黄、暴力内容,其技术成熟度足以证明:平台并非 “无能为力”,而是 “不为”。
值得关注的是,本案判决还将平台的 “事中处置义务” 纳入考量范围。法院指出,涉案视频在短时间内浏览量飙升至 3.5 万次,平台本应通过流量监测系统触发预警,却未采取任何干预措施。这一认定倒逼平台构建 “技术监测 + 人工审核” 的双重机制,避免因 “技术偷懒” 沦为网络暴力的帮凶。
从 “事后救济” 到 “全程护航”,标注未成年人保护的范式转型。未成年人因其心智尚未成熟、社会经验不足,在网络空间中处于天然弱势地位。本案中,受害者因黄谣视频遭受的精神创伤,与此前粉发女孩因网暴轻生、取快递女子被造谣 “出轨” 等事件一脉相承。这些悲剧共同揭示:网络暴力对未成年人的伤害具有不可逆性,法律必须前移保护关口。
本案判决正是这一理念的体现。法院在审理中秉持 “未成年人利益最大化” 原则,不仅要求平台承担连带责任,更通过判后释明敦促其完善未成年人保护机制。这种 “司法 + 普法” 的双重导向,与《未成年人网络保护条例》提出的 “预防、识别、处置” 全链条治理要求高度契合。未来,平台需建立覆盖内容生成、传播、扩散的全流程风控体系,例如对未成年人用户发布的内容进行预审,对涉及未成年人的信息实施 “先审后发”,从源头切断网络欺凌的传播链条。
从 “单打独斗” 到 “协同治理”,探索社会共治的破局之道。本案的警示意义远超个案范畴,折射出网络空间治理的深层命题。一方面,家长和学校需加强未成年人网络素养教育,培养其自我保护意识和信息甄别能力。比如,通过模拟网络欺凌场景,教育未成年人如何留存证据、及时求助。另一方面,监管部门应强化对平台的合规检查,将未成年人保护纳入平台评级体系,对屡教不改者实施 “黑名单” 制度。
值得欣慰的是,本案已入选人民法院案例库,成为指导同类案件的标杆。类似地,苏州大学、南华大学对造黄谣学生的开除处分,也释放了 “零容忍” 的强烈信号。这些司法与行政手段的协同发力,正在构建 “法律震慑 + 道德约束 + 技术防控” 的立体化治理网络。
从 “通知删除” 到 “主动防御”,从 “技术中立” 到 “责任主体”,本案判决标志着未成年人网络保护进入新阶段。在这场关乎下一代身心健康的战役中,平台不能再以 “技术限制” 为借口逃避责任,社会各界也需摒弃 “看客心态”,共同织密未成年人保护的法网。唯有如此,才能让网络空间真正成为滋养青春的沃土,而非吞噬希望的深渊。正如清华大学法学院副院长程啸所言:“本案为网络平台确立了清晰的行为规范,有利于督促其更好地履行注意义务。” 这,或许就是本案最深远的警示价值。(大河网河声评论员 董宏达)