(资料图)

2023年6月14日,欧洲议会(European Parliament)以499票赞成、28票反对和93票弃权通过了其关于人工智能(AI)法案的谈判立场,并将在随后与欧盟成员国就该法律的最终形式进行谈判。这些规则将确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明、非歧视以及社会和环境福祉。

人工智能实践禁令范围

这些规则遵循基于风险的方法,并根据人工智能可能产生的风险水平,为提供商和部署人工智能系统的机构明确义务。因此,对人类安全具有不可接受的风险水平的人工智能系统将被禁止,例如那些用于社会评分(根据社会行为或个人特征对人进行分类)的系统。在本次讨论中,欧洲议会议员扩大了清单,包括禁止侵入性和歧视性使用人工智能,如:

公共场所的“实时”远程生物识别系统;“后”远程生物特征识别系统,唯一的例外是用于起诉严重犯罪的执法,并且必须经过司法授权;使用敏感特征(如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统;预测性警务系统(基于特征分析、位置或过去的犯罪行为);执法、边境管理、工作场所和教育机构中的情感识别系统;和从互联网或闭路电视录像中无针对性地抓取面部图像,以创建面部识别数据库(侵犯人权和隐私权)。

高风险人工智能

MEPs确保高风险应用程序的分类现在将包括对人们的健康、安全、基本权利或环境造成重大损害的人工智能系统。此外,用于影响选民和选举结果的人工智能系统以及社交媒体平台(拥有超过4500万用户)使用的推荐系统也被添加到高风险名单中。

一般目的人工智能服务商的义务

基础模型的提供商——人工智能领域一个新的快速发展的领域——必须评估和减轻可能(对健康、安全、基本权利、环境、民主和法治产生)的风险,并在欧盟市场发布之前在欧盟数据库中注册他们的模型。基于这种模型的生成式人工智能系统,如ChatGPT,必须符合透明度要求(披露内容是人工智能生成的,也有助于区分所谓的深度伪造图像和真实图像),并确保防止生成非法内容。用于培训的版权数据的详细摘要也必须公开。

支持创新和保护公民权利

为了促进人工智能创新和支持中小企业发展,欧洲议会增加了对研究活动和开源许可证下提供的人工智能组件的豁免。新法律增加了对所谓由公共当局建立的的监管沙盒的支持,以在部署人工智能之前对其进行测试。

最后,欧洲议会议员希望提高公民对人工智能系统提出投诉的权利,并获得对基于高风险人工智能系统的决定的解释,因为这些决定严重影响了他们的基本权利。欧洲议会议员还改革了欧盟人工智能办公室的角色,该办公室将负责监督人工智能规则手册的实施情况。

本文系未央网专栏作者:高旭 发表,内容属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

推荐内容