布鲁塞尔当地时间5月21日,欧盟理事会(European Council)宣布通过了一项开创性的法律——《人工智能法案》(Artificial Intelligence Act),该法案为欧盟在人工智能领域的重要立法步骤,旨在平衡创新与风险,保护消费者的基本权利,同时推动人工智能技术的健康发展。
该法案也标志着欧盟在全球人工智能监管方面迈出了重要一步,作为全球首部此类法律,该法案为全球人工智能治理提供了一个重要的参考框架。早在今年三月,欧洲议会就以523票赞成、46票反对、49票弃权的投票结果通过了《人工智能法案》。
下一步,该法案将送呈欧盟议会主席和理事会主席签署,签署后在欧盟的官方公报上公布,并在公布后二十天生效。
以下为该文件的核心内容:立法目的:法案旨在促进欧盟单一市场内安全和可信的人工智能系统的发展和应用,同时确保尊重欧盟公民的基本权利,并促进欧洲对人工智能的投资和创新。
风险基础方法:采用基于风险的方法,风险越高,规则越严格。
适用范围:该法案仅适用于欧盟法律范围内的领域,并对军事和国防用途以及研究目的的系统提供豁免。
AI系统分类:根据风险将人工智能系统分类,高风险AI系统需要满足一系列要求才能进入欧盟市场,如认知行为操纵和社会评分系统将被禁止。
通用AI模型:针对通用人工智能(GPAI)模型的使用,不具有系统性风险的模型将受到有限的要求,而具有系统性风险的模型则需要遵守更严格的规则。
治理机构:为了确保该法案得到适当执行,设立了多个管理机构,包括:
欧盟委员会内的AI办公室(负责在欧盟范围内执行统一的规则);
由独立专家组成的科学小组(支持执行活动);
由成员国代表组成的AI委员会(为欧盟委员会和成员国提供咨询和帮助,以确保AI法案的一致和有效应用);
为AI委员会和欧盟委员会提供技术专长的咨询论坛(让利益相关者为AI委员会和欧盟委员会提供技术专长)。
处罚措施:违反该法案的行为将根据违规公司的全球年营业额的百分比或预定金额(以较高者为准)进行罚款,中小企业和初创企业将受到相应的行政罚款。
透明度和基本权利保护:在部署高风险AI系统之前,需要评估其对基本权利的影响,并提高高风险AI系统的开发和使用的透明度。
支持创新的措施:该法案提供了一个鼓励创新的法律框架,旨在促进基于证据的监管学习,允许在受控环境中开发、测试和验证创新AI系统,并在现实世界条件下进行测试。
亮点:
确立统一法律框架:为欧盟内部市场提供了一个统一的法律框架,用于规范人工智能系统的发展、上市、投入使用和服务,有助于减少成员国之间的法律差异,促进AI技术的协调发展。
促进创新与信任:通过制定明确的规则和标准,鼓励创新同时确保AI系统的安全性和可靠性,增强公众对AI技术的信任。
保护基本权利:强调保护个人的基本权利,包括隐私、数据保护、非歧视和自由等,确保AI系统的发展不会侵犯这些权利。
高风险AI系统的严格监管:对可能对人类健康、安全和基本权利造成重大影响的AI系统进行严格监管。
风险管理:要求AI系统提供者建立风险管理系统,以识别和减轻AI系统可能带来的风险。
透明度和信息提供:要求AI系统提供者向用户和监管者提供足够的信息,以确保系统的透明度和可解释性。
强化市场监管:通过建立市场监管框架,确保AI系统的合规性,维护市场的公平竞争和消费者权益。
支持中小企业:特别关注中小企业在AI领域的创新和发展,提供支持措施,帮助它们在合规的同时促进技术创新和市场竞争力。
促进国际合作:虽然法案主要针对欧盟内部市场,但其高标准和前瞻性的规则可能会对全球AI治理产生影响,促进国际间的合作和交流。
适应技术发展:法案考虑了AI技术的快速发展,提供了一定的灵活性以适应未来的技术变革。
后续步骤:该立法行为将在欧洲议会和理事会主席签署后不久在欧盟官方公报上发布,并在发布后20天生效。新规定将在生效后两年内适用,特定条款例外。
本文整理自European Council官网新闻