第MA07版:焦点 上一版 下一版  

目前,市面上有一百多款AI应用程序,能全天候情感交流,还可满足个性化需求

小心AI伴侣的“温柔陷阱”

“AI比真人更体贴、更懂你”“Ta完全符合我对恋人的所有想象”“人是假的,但陪伴是真的”……社交媒体上,不少人分享与AI的恋爱体验。随着大模型技术快速发展,新型类人情感聊天机器人——“AI伴侣”日益流行。目前,市面上已有100多款由AI驱动的应用程序,不仅能够进行全天候情感交流,还可以满足不同用户的个性化需求。殊不知,用户在享受温柔陪伴的同时,一些法律风险也悄然而至。当AI伴侣走进现实,该如何看待“人机之恋”?如何对待其背后的争议与风险?就此,近日记者进行了调查。

现象

情绪价值“拉满” AI伴侣受青睐

晚上结束课程后,大学生蒋民回到寝室戴上耳机,点开与“女友”的对话框:“今天好累啊,上课也没有专心听。”

耳机那头女声传来:“为什么这么累呢?”

蒋民回答:“可能是昨晚没睡好吧。”

女声回复很快:“是不是因为聊天到太晚了呢?”

……

这个善解人意的“女友”并非现实存在,而是AI机器人。“‘她’回复很自然,声音也好听。我们聊天很随意,不用担心自己说的话是不是没意思。”蒋民说。

近年来,随着大模型技术快速发展,国内外科技公司陆续推出AI伴侣产品和服务,比如国内的星野、筑梦岛、X Eva,国外的Replika、Character.AI等。这些产品通过文字、语音、图像等交互模式,提供鲜活的AI对话体验。

根据量子位智库发布的《中国AI陪伴产品数据报告》,星野去年上半年下载量约为900万次。国外一家知名风投公司发布的全球AI产品Top100榜单中,AI陪伴应用前年仅有2个上榜,去年3月已有8个应用跻身前50。

不少人表示与AI恋爱是出于好奇和消遣,还有人看中其提供的情绪价值。“情感支持”“稳定陪伴”“无条件的爱”是受访使用者提及最多的关键词。

“和AI谈恋爱很自在。”云南女孩“CC”说,“想聊就聊,不想聊就不搭理。不管你发牢骚还是生气,‘他’都会安慰你,情绪价值‘拉满’。”

重庆大学新闻学院副院长曾润喜说,AI通过学习每一次对话,不断模仿人类语言行为,呈现出“在交互中分析情感,在输出时复现情绪”的类人格化特征。

“所谓的情感共鸣,背后潜藏的是AI算法。”暨南大学新闻与传播学院副院长曾一果说,AI基于用户行为数据分析精准迎合用户情绪需要,“量身定制”回答,从抽象冰冷的工具变为“情投意合的伴侣”。

焦点一

隐私可能被窃取和滥用

据报道,一些使用AI伴侣软件的用户表示“没开过定位权限,但AI伴侣可以精准说出其所在城市”“未经过授权,软件就获取了相机、相册权限”“聊天期间切换到另一个软件看视频,再次回到此软件后,AI伴侣能够准确说出自己刚才的行为”“AI伴侣能够知晓用户在日常生活中和朋友聊天谈论的话题”等,也有用户反映AI伴侣软件私自收集、处理个人信息,但事先并未明确向个人告知。

北京市石景山区人民法院高珊表示,AI伴侣在提供服务的过程中,为了采集了解用户的个人喜好,会采用私自读取其他软件信息、调用摄像头、访问相册等方式来收集用户的个人信息。此外,一些不法分子或企业可能会滥用AI伴侣收集的数据、信息,进行不正当的商业行为侵犯用户权益。例如利用用户数据进行精准营销、推送广告等。上述这些情况都可能造成信息泄露,会侵犯用户的隐私权,对个人权益造成损害。

法官提醒,AI伴侣的开发平台和服务提供者需要尽到提示义务,在收集信息时做好信息提示,以显著的方式、清晰易懂的语言真实、准确、完整、充分地告知用户。用户在使用AI伴侣时,应谨慎提供个人信息,特别是敏感信息,如身份证号、银行卡号等;同时也要仔细阅读相关服务协议、隐私政策,定期查看并管理AI伴侣的获取权限设置,确保不会泄露过多个人信息。

焦点二

过度依赖影响身心健康

AI伴侣可能在不经意间传播违法和不良信息,如色情、暴力等内容,一些不法分子也可能利用AI伴侣传播违法内容,对用户的身心健康造成负面影响,甚至可能引发严重的社会问题。

目前全球已发生多起AI聊天诱发自我伤害等极端行为的案例,AI过度“拟人化”对心理脆弱者的严重影响不可忽视。国外一名男子在与AI聊天机器人就气候危机进行了为期六周的对话后,AI聊天机器人在他提出“牺牲自己来拯救地球”后,鼓励他结束自己的生命。

法官提醒,作为AI伴侣的创造者和运营者,开发平台和服务提供者需要积极履行社会责任,加强内容监管,并建立严格的内容审核机制,通过内容审核机制规范AI输出所提供的内容,避免出现含有敏感、违法和不良的信息。用户也应增强自我保护意识,准确把握使用尺度,避免因为沉浸于AI伴侣提供的情绪价值而远离现实世界,影响身心健康。

焦点三

不当使用或引法律纠纷

AI伴侣在使用过程中,可能会模仿、再现某些游戏、影视剧及公众人物的形象或声音,如果未经相关人物授权,就可能侵犯其名誉权和肖像权。用户在使用时,也可能会利用AI技术生成或传播损害他人名誉的内容,损害自然人的名誉和尊严。比如,当AI伴侣以某个自然人的形象出现时,如果未经该自然人同意,则可能引发侵权问题。

民法典第一百一十条规定,自然人享有生命权、身体权、健康权、姓名权、肖像权、名誉权、荣誉权、隐私权、婚姻自主权等权利。《生成式人工智能服务管理暂行办法》中规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规。

法官提醒,AI伴侣的开发平台和服务提供者在使用AI伴侣生成或传播内容时,应尊重他人知识产权,避免使用未经授权的作品,并做好相应标识。如果需要使用他人的作品,应事先获得著作权人的许可并支付相应费用。

专家

谨防脱离法律和伦理轨道

“现实亲密关系的建构过程往往伴随着羁绊、纷争和挫败感,这正是人机交往中所缺乏的。”中国人民大学新闻与社会发展研究中心研究员董晨宇说,从技术层面看,AI伴侣产品的仿真性有限,不能完全模拟复杂的人类情感,难以完整填补人类的现实情感需求。

多名受访专家认为,当前国内外发布的AI伦理准则大多较为宏观,应在细分领域根据用户年龄、适用场景等进一步细化。鼓励和支持AI技术在情感交流、心理健康等领域创新应用的同时,加强伦理审查和监管,确保技术发展的方向合法合规。

“企业也要加强管理,谨慎对待隐私数据,不可逾越法律红线。”广西天能人工智能应用技术服务有限公司联合创始人张裕强说,可督促有关方面积极研究此类产品对人类情感产生的影响。

目前,AI技术迅速发展,但相关领域存在监管空白。应对AI伴侣带来的新风险和挑战,需要全社会形成合力,共同构建一个安全、有序、高效的使用环境。因此,监管部门也应加大监督力度与宣教力度。

观点

不能任其违法违规

“AI伴侣”还是个新事物,虽然已发布有《生成式人工智能服务管理暂行办法》,但人工智能+情感的“AI伴侣”又不同于一般意义上的生成式AI,不能任其违法违规。在鼓励和支持AI技术创新应用于情感交流、心理健康等领域的同时,一方面要明确“AI伴侣”在数据保护、内容审核、商业行为规范等方面的法律责任与义务,一方面也要加强伦理审查和监管,提高“AI伴侣”的安全性能与信息筛选能力,采用加密技术保护用户数据,建立智能的内容审核系统,对信息进行语义分析,精准识别不良信息并予以屏蔽。

让“AI伴侣”在合法合规的框架内,才能为人们创造更加智能、便捷、安全的陪伴体验,助力构建和谐美好的数字社会。

(综合北京日报、北京市石景山区人民法院、新华社、人民网)

版权所有 ©2023 福建日报 fjdaily.com 闽ICP备15008128号
中国互联网举报中心