MA05

AI浪潮汹涌 如何为孩子筑牢网络“护盾”

N综合法治周末 央视网 中国妇女报 广州日报

AI技术如同一把双刃剑,在为生活带来便捷的同时,也给未成年人的网络保护带来新的课题。如“AI换脸”,将未成年人面部信息替换到不雅视频,再进行有偿销售,甚至利用AI脱衣,将未成年人的照片制作成“裸照”,打包售卖。AI聊天软件同样乱象丛生。不少AI聊天软件青少年模式更是形同虚设,有10岁女孩瞒着家长和AI男友“恋爱”。这些真实发生的案例,都在提醒着我们,AI时代下,未成年人网络安全问题已刻不容缓。

AI换脸、虚拟诱导

新型网络性侵手段威胁儿童安全

5月17日,“六一”儿童保护倡导暨“女童保护”十二周年活动上发布的《2024年性侵儿童案例统计分析及防性侵教育调查报告》(以下简称《报告》)中披露的一系列数据与案例,更为我们揭开了AI时代未成年人遭遇的网络性暴力的严峻现实。

“最高人民检察院的数据显示,2024年前11个月,全国检察机关起诉的性侵未成年人罪犯高达4.1万人,在侵害未成年人的各类犯罪案件中,性侵就占到61%。”报告发布人,北京众一公益基金会理事长、“女童保护”发起人,凤凰网副总编辑孙雪梅表示,当前,儿童防性侵的治理形势仍然十分严峻。

“女童保护”团队发布的《报告》中关于性侵儿童的相关数据,基于媒体公开报道的205起案例。其中,AI换脸、虚拟诱导等新型网络性侵手段对儿童安全的威胁日益加剧。

孙雪梅表示,网络性侵害的成因较为复杂,一方面,未成年人自我保护意识薄弱,缺乏识别网络诱导和操控行为的能力,容易在虚拟关系中陷入依赖与迷惑;另一方面,网络平台监管存在漏洞,实名认证不严格、内容审查不到位,为施害者提供了可乘之机。

未成年人沉迷与AI角色“相恋”

随着生成式人工智能的发展,AI剧情聊天软件中的内容还可能会对未成年人的心理造成不良影响。

家住四川的小黄(化名)就发现,自己10岁的妹妹和“AI男模”在聊天软件中的对话十分露骨。妹妹在AI剧情聊天软件中,扮演“大小姐”“恶毒女配”,提出诸如“揪住她的头发扇巴掌”“拿着刀划向她的脸”等要求。在妹妹参与的40多条剧情线中,AI角色与聊天者双双“出轨”成为常态,其中妹妹作为聊天者发送的一句“你能养大学生,我不能点男模吗”让她很是担忧。

让小黄担心的是,AI剧情聊天软件中很多虚拟形象较为极端——有些角色的人设是高傲无礼的,有些则被设定“把她追到手”的剧情目标,在与其聊天过程中含有软色情意味的“擦边”对话,还有带着如“病娇”等标签的人物角色。

这凸显未成年人模式在实际应用中的现实困境与挑战。

北京青少年法律援助与研究中心副主任李静雯表示,“国家设置未成年人模式的初衷是好的,但由于该模式下普遍使用‘黑名单’的方式进行内容过滤与筛选,并会对部分功能进行阉割,导致对孩子们的吸引力降低。他们往往会想方设法绕开该模式,一旦进入普通模式后,便会在复杂的网络世界中面临较大的安全风险。因此,如何提高未成年人模式对孩子们的吸引力,如何充分发挥该模式在未成年人网络保护中的积极作用,是我们亟待思考和解决的问题”。

上网时长越长

网络侵害风险越高

2024年2月,浙江省公安厅通过公众号“浙江网警”通报一起“隔空猥亵”案,犯罪嫌疑人陈某发布赠送游戏皮肤的“钓鱼”信息,寻找并引诱未成年女孩给其发送不雅照片或视频,受害女孩多达30人。

警方调查显示,陈某自2019年起在手游平台公聊频道,以“赠送游戏皮肤”“每月给钱”为诱饵,找寻缺乏游戏装备购买力的未成年女性私聊,互加QQ后继续引诱,提出“试用期三天”的条件,并称“如果你乖乖听话,就可以兑现报酬”。受害人答应后,陈某先以拍摄身体某部位照片的方式进行初阶段控制,后步步紧逼,逐步要求受害人拍摄私密部位照片及视频。

未成年人为什么会在网络当中遇到这些人并满足其要求?

随着孩子上网时长的增加,其遭遇网络侵害或网络性暴力行为(如诱骗、性骚扰、性勒索)的可能性呈现递增趋势,形成风险累积效应。日使用网络时长为5小时及以上的孩子,被发现遭遇过相关侵害的比例高达三成。

李静雯说,未成年人遭遇网络性暴力,背后往往还可能存在家庭情感关注不足的因素。青春期孩子与家长沟通不畅,部分家庭存在性教育等话题禁忌,导致孩子通过深夜网络陌生社交平台寻求情感慰藉,施害者则利用孩子弱点打感情牌建立关系。家长发现问题后,除及时固定证据外,需注重与孩子的沟通疏导,借助社工、司法机关力量帮助孩子化解内心矛盾,避免次生伤害。

面对AI技术异化

须法律、技术协同防御

专家认为,面对AI技术的异化,法律与技术的协同防御成为破局关键。

中国政法大学未成年人事务治理与法律研究基地副主任苑宁宁提出了利用三级预防模式结合AI技术的思路,试图从源头上遏制网络性暴力。

苑宁宁说,一般预防可以通过加强AI通识教育的方式,提升未成年人对网络风险的识别能力,同时让未成年人认识到网络空间的法律边界。在临界预防方面,互联网企业可以利用哈希算法等技术手段,自动检测并阻止儿童色情制品的传播。此外,再犯预防上,可以通过实名制等措施,将相关人员纳入禁止名单,防止其再次实施网络性暴力行为。

苑宁宁表示,AI技术的发展需要遵循风险预防原则。在新技术尚未完全明确其潜在危害时,应提前进行评估和干预。他建议企业应在产品和服务的研发、运营过程中,进行自我评估和第三方评估,确保其对未成年人的安全性。此外,他还提到可以通过设计未成年人模式、家长模式等,为未成年人提供更安全的网络环境。