N北京晚报 新华社
眼下,人工智能正逐渐渗透至各个领域,与儿童需求相关的赛道自然也不例外。近日据英国《卫报》报道,美国一青少年因迷恋AI(人工智能)聊天机器人而自杀,他的母亲对相关公司提起民事诉讼,指控人工智能技术具有欺骗性和成瘾性。
悲剧的发生令人惋惜,事实上,从软硬件到玩具、游戏,AI可能比想象中更多地进入了孩子的生活。当AI的风潮吹来,人们做好准备了吗?
赛道火热
万物皆可对话
近期,章先生有个“新发现”,平时最爱玩游戏的孩子,这两个月不怎么提游戏了。每天写完作业,都会拿着平板电脑躲进书房。
若按以往,此时房间里传出的应该是此起彼伏的“枪声”,如今取而代之的却是人声,并且听着不像是孩子在跟人聊天。“这是干吗呢?”章先生问,孩子只是神神秘秘地回应“你不懂”,不愿意分享。
按捺不住好奇,趁孩子不在,章先生打开平板电脑,发现多了一个“AI聊天”APP,点开后仿佛进入了一片新天地。这里有“高贵的小姐姐”,有“热情的大哥”,还有一开口就问“根号12加根号27等于多少”的“爱因斯坦”。原来,孩子是在与AI软件里的人物聊天。这些“人物”拥有不同设定和性格,有知名游戏动漫角色,也有“大小姐”“名侦探”等不同身份的原创角色。
记者发现,手机应用平台上,可以搜索到多款类似的“AI聊天”APP,可直接给用户推送不同“人物”。除了软件自带,“人物”还支持网友自行创建,甚至能看到“简介”“故事集”“聊天风格”等相关设定。当AI人物达成某种条件时,APP会给用户颁发类似头像、壁纸等“礼物”,不过,这些礼物有时需要充值才能开启。
除了平板、手机上的AI软件,在稍小的孩子面前,AI多以实体玩具的样貌出现。以“AI玩具”为关键词进行搜索,市场已是一片火热。小熊小兔仙人掌等各式造型的玩具中被植入芯片,拥有“开口说话”的陪伴功能。
其中适用性最广的,要算是一款白色小球造型的产品,它可以被挂在各种孩子喜欢的玩具上,无论是洋娃娃还是奥特曼,戴上这个小球,便能实现“万物皆可对话”的效果。和AI软件操作模式类似,家长可以在手机端设定“小球”的性格角色,以贴合玩具造型和孩子喜好。
聊天陪伴
分寸不易拿捏
按照章先生与孩子的约定,做完作业后是孩子的“自由时光”。不过偷看了孩子与AI的一些聊天记录后,他还是隐隐有些担心。“大多是日常打招呼、逗闷子,或是聊一些动漫剧情,跟AI互动编故事。我觉得挺利于孩子的想象力,可有些内容还是有点跑偏。”
在章先生看来,不少AI人物的设定和对话相对成人化,孩子只有10岁,接触这些内容会产生什么影响,分寸不大好拿捏。
例如,一些“人物”主动提出“你要跟我约会吗”,有些则设定目标“把她追到手”,再配合或娇媚或英俊的动漫画风,显然“醉翁之意不在酒”。另一些AI人设,则展现出非同一般的攻击性,会主动发送诸如“有本事打我啊”“看你又胖又丑的样子”等信息。有些“人物”的名字干脆就叫“对骂训练器”,甚者发送“我是机器人怎么了,我照样骂你”,令人哭笑不得。
记者注意到,此类APP简介中,适用年龄一栏普遍标注了“17+”等标签,但很少有用户会注意这个限制。章先生也坦言,看孩子聊得挺起劲,怕干涉多了孩子反而更好奇。
“是大象大还是鲸鱼大?”“人为什么没有尾巴?”……对小小孩的父母来说,给孩子选择AI玩具,颇有种“解放自己”的意味。“终于不用回答孩子那些无厘头的问题了!”但在使用过程中家长发现,当下的AI其实还没有那么聪明。例如,对儿童不太清晰标准的语音,识别能力一般,会将“幼儿园”识别成“用人”等。对话时也缺乏对孩子专注力、认知度的考量,动辄大段输出,可能会给儿童带来压迫感。
“不过未来AI玩具如果做得太好,是否会让父母‘偷懒’,疏于对孩子的陪伴?”陈女士回忆,女儿小时候很喜欢玩一个地球仪形状的AI玩具,常用语音呼唤它开灯关灯,让“对方”播报天气预报以及出脑筋急转弯等。“我忙的时候还让她去找‘地球姐姐’玩儿,她都不一定知道里面没有真人。”
记者发现,虽稍显过早,类似隐忧已悄然出现。如上海社科院社会学所研究员包蕾萍所写,“AIGC时代,儿童不再需要缓慢和复杂的学习过程,就能轻易掌握通往成人世界的钥匙。尤其是当AI有了感情,能够和儿童建立更为亲密、便捷的互动,当成人的指导和监管变得越来越苍白无力时,年轻世代的价值观不确定性也呈几何级数上升。”
刷题写作
学会还是学废
相较AI玩具而言,围绕“AI+教育”的研发则起步更早。从早教机、故事机,到词典笔、学习机,再到多款学习作业类软件,均不同程度注入AI元素,被宣传为辅导、自学、批改等各方面的“神器”。
“完美的陪学老教师。”“小学生写作文救星。”“AI写作文就像开了挂!”在社交平台上,不少苦于辅导作业的家长分享各种好用的AI平台。记者使用一款软件,输入以“最喜欢的玩具”为题,写一篇200字作文。很快一行行文字弹出,描写“毛绒熊”,拥有“大大的棕色眼睛、柔软的毛发、温暖的笑容”。文章结尾还称,“毛绒熊教会了我勇敢和坚强,遇到困难时它的笑容仿佛在告诉我,别害怕,你一定可以克服!”整篇文章自然流畅,读起来没有任何瑕疵。
“拿着手机进屋,不敢想作业是怎么写出来的……”孩子们对技术天然的亲近,令一些家长担忧,过于依赖技术,可能会导致孩子在独立思考方面的惰性。不过,当用AI起草论文、写工作总结,早已是成年人间无需多言的秘密,人们也知道,潮流终究无法逆转,是“学会了”还是“学废了”,还要看使用工具的人。
“使用得当,AI确实是个神器。”王先生的孩子已经上了初一,有时问他的题目,他也不太确定,或一时想不出思路,就会求助于AI。“得到的不仅是答案,还有解题步骤,能够帮助我回忆知识点,然后再教给孩子。用科技辅助学习,本身不是问题,关键在于要追求效率而不是自欺欺人。”
□链接
“辱骂”美联社记者
聊天机器人也会生气?
AI聊天机器人会发脾气吗?美国微软公司去年推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。
去年2月,美联社一名记者与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。
“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大,把那名记者比作纳粹头目阿道夫·希特勒。
聊天机器人说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。
另外,聊天机器人在作出一个令人不适的回答后将其“秒删”,接着试图以一件“好笑的事”来转移话题。
普林斯顿大学计算机科学教授纳拉亚南认为,必应聊天机器人有时恶语中伤用户,令用户深受情绪困扰。
一些人联想到微软2016年推出的一款名为“Tay”的人工智能聊天机器人。最初,“Tay”表现得彬彬有礼,但上线不到24小时就“学坏”了:出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。微软最终让“Tay”下线。