第MA07版:焦点 上一版 下一版  

欧盟将禁用这类人工智能系统

欧盟就《人工智能法案》达成初步协议,这是全球首份针对AI监管的全面法规,涉及包括ChatGPT在内的通用目的AI系统

N央视 环球网 界面 中国经营报

当地时间8日晚间,在经过一周的马拉松式谈判和激烈争论后,欧盟委员会、欧洲议会和欧盟成员国代表就《人工智能法案》达成初步协议,新法案涉及包括ChatGPT在内的通用目的AI系统。这是全球首份针对AI监管的全面法规,意在从保护人类基本权利和不阻碍人工智能行业发展之间寻求平衡。法案的技术细节内容还在讨论中,最终文本没有对外公布。

根据欧洲议会和欧盟委员会公布的信息,法案将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应规定,原则为“风险越高,规则越严”。

对人类基本权利构成明显威胁的AI系统,将全部禁用

欧洲议会官网8日的声明列出了将被禁止的AI应用类型,包括:使用敏感特征的生物特征分类系统,敏感特征涉及政治、宗教、哲学信仰、性取向、种族;网络或视频监控进行无目标的人脸信息收集以创建人脸识别数据库;工作场所和教育机构进行表情识别;根据社会行为或者个人特征进行社会评分;操纵人类行为、绕开人类自由意志的AI系统;剥削脆弱人群的AI系统。

欧盟委员会解释,对人类基本权利构成明显威胁的AI系统属于不可接受风险级别,此类系统将全部禁用。

但在包括人脸识别在内的生物识别系统应用中,欧盟的AI法案将允许执法部门在严格限制条件下,对涉嫌或者已经被判决犯下重罪的人员进行非实时远程生物识别。

执法部门要进行实时生物识别只能在特定情况下,例如寻找受害人、阻止恐怖袭击威胁、定位识别犯下谋杀等严重罪行的嫌犯。

提供聊天机器人、深度伪造内容等,应告知用户

高风险级别为有很大可能伤害人类健康、人身安全、基本权利或者破坏环境、民主和法治的AI系统。例如能源领域和医疗机构关键基建使用的AI系统,招聘员工、教育机构接收学员的系统,执法部门、边境管控使用的AI系统。能影响选举结果和选民行为的系统也被视为高风险。

这类系统在使用时需要符合一系列严格要求,包括设立风险缓释系统、活动日志记录、详细归档、详细的使用者信息、人类工作人员监督。一旦认为自己的权利受到损坏,公民将有权对相关AI系统进行投诉。

低风险级别系统则为没有对公民权利或者安全构成威胁或者威胁很小的AI系统。此类系统可以自由使用,例如垃圾邮件过滤器、推荐系统。

特定透明度风险则涉及聊天机器人、深度伪造内容。在提供聊天机器人服务时,提供方需让用户知道与自己对话的是机器;深度伪造和其他AI生成的内容则应该被标记说明。提供方在使用表情识别或者生物特征分类系统时应该告知用户。

对开源模型,给予了广泛的豁免

对于类似ChatGPT的通用AI系统(GPAI)以及相关的GPAI模型,提供方需要制作技术文件、遵守欧盟版权法、披露训练系统时使用的数据内容汇总。

如果高强度的GPAI模型构成系统性风险,则还需满足一系列更严格要求,包括进行模型评估、对抗测试、降低系统性风险、发生严重事故时向欧盟委员会汇报。欧洲议会和欧盟委员会上周五公布的说明没有解释哪些风险属于系统性风险。

值得注意的是,临时协议纳入了对人工智能基础模型的限制,但对开源模型给予了广泛的豁免。

开源模型是使用开发人员可以免费使用的代码开发的,可以根据自己的产品和工具进行修改。此举可能有利于游说反对该法律的欧洲开源人工智能公司,包括法国的Mistral和德国的Aleph Alpha等。

然而,一些被归类为具有“系统性风险”的专有模型将受到额外义务的约束,不过欧盟委员会没有在声明中具体说明什么标准会触发更严格要求。

违反欧盟的AI法,公司或将面临重罚

各企业和机构违反欧盟的AI法将面临罚款。罚款金额最低为750万欧元或公司营业额的1.5%,最高3500万欧元或公司全球营业额的7%。

之后,欧盟代表还将对AI法案的部分技术细节进行完善,最终文本或有所调整。确定法案最终文本后,欧洲议会和欧盟委员会将对法案进行投票。法案全部实施最早预计需到2025年,彼时AI领域很可能已经有了新的发展。

有行业组织认为此法案太严苛

欧盟科技领域部分人士指责新的AI法案阻碍行业发展、浪费企业资源。科技行业组织“数字欧洲”总干事博内费尔德-达尔认为欧盟AI法的严苛要求会让科技公司为遵守法律而耗费大量资源,还需要花更多钱请律师而不是聘请AI工程师。

但人权组织不满欧盟的法案存在诸多漏洞,没有规范AI系统在移民和边境管控上的使用,还为企业避免系统被定为高风险提供了操作空间。

虽然不完美,但欧盟的首个AI法将成为其他国家的重要参考。美国媒体指出,欧盟此前推出的数字隐私法案、数据保护规定已经让部分美国科技公司调整了欧盟外的用户数据处理流程。美国也在探索制定自己的AI法。

AI监管成全球共识

不仅是在欧洲,生成式AI的伦理和安全治理已经成为全球AI领域普遍关注的议题。

在中国,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部等七部门于2023年7月13日公布了《生成式人工智能服务管理暂行办法》,实施了包容审慎和分类分级的监管措施,旨在提高监管的高效性、精确性和敏捷性,并于2023年8月15日开始施行。

美国则发布了一系列自愿性标准,如《AI风险管理框架》和《AI权利法案蓝图》,重点强调AI的创新和发展,倾向于采用组织自愿遵守的指南、框架或标准等方式进行AI应用的软治理。

此外,在2023年10月,联合国也成立了一个高级别人工智能咨询机构,专门针对AI技术带来的风险和机遇进行探讨,同时为国际社会加强治理提供支持。

中国科学院自动化研究所研究员曾毅认为,虽然先进人工智能有可能通过解决当前健康、教育、环境、科学等领域的未解挑战,但创造这些好处的人工智能系统,本身的属性也成了巨大的风险来源。当规模更大、不确定性更大的模型向所有人开放时,误用、滥用问题将不仅是人工智能科学家面临的挑战,也是全世界面临的挑战。

版权所有 ©2023 福建日报 fjdaily.com 闽ICP备15008128号
中国互联网举报中心