服务热线:0551-63356267
咨询热线:0551-63356288

新闻资讯

欧盟人工智能法案对全球人工智能监管的影响

发布日期:2024-06-04    浏览次数:56

 

日前,欧盟理事会正式批准了《人工智能法案》。该法案已于今年3月份在欧洲议会高票通过,时隔2个多月后在欧盟理事会获批,标志着全球首个对人工智能(AI)进行规范的系统性法律正式进入落实阶段。

欧盟《人工智能法案》将防控风险作为基础,“风险”概念贯穿法案始终。法案将各类AI技术和应用分为三大类,按照其对社会带来的风险严重程度由高至低分别为“不可接受”“高风险”和“通用”。

“不可接受”类包括利用AI技术采集和分析数据,并据此对欧盟公民进行标签化分类,还包括先于犯罪行为实际发生的预防性执法,以及在工作场所和学校进行情绪识别和干预。法案明确禁止此类AI应用,禁令将于今年11月份正式生效,也是法案最早实际生效的部分。

“高风险”类包括AI驾驶汽车以及AI操控医疗设备,因为此类应用有可能对公民的健康、安全等基础权利构成风险;还包括AI在金融服务和教育领域的应用,主要为了防止算法设计上出现偏见导致特定群体利益受损。法案明确要求,此类高风险应用需符合相关产品安全规定,这一要求将在2027年夏季正式实施。

“通用”类即当前高度流行的生成式AI系统,法案对其作出了严格的要求限制,包括要遵守欧盟版权法,要对模型的训练模式保持透明度,要有网络安全保护措施,以及要经过定期测试。有关限制将在2025年夏季起正式实施,但此后仍将有3年的“过渡期”让有关企业调整其产品以确保合规。。

此次欧盟通过的《人工智能法案》酝酿于2021年,针对的正是AI技术快速发展对社会安全和公民权利的冲击。法案提出以来,一直被贴有“世界首个”“全球最严”等标签,也引发了其他国家或加以效仿,或对冲反制的连锁反应。

欧盟人工智能法案的通过对全球人工智能监管产生了重要影响。首先,它为其他国家和地区提供了一个关于如何制定人工智能法规的参考框架。欧盟作为全球经济的重要参与者,其法律标准往往具有广泛的影响力,因此其他国家可能会考虑采纳类似的规定来保护消费者权益和数据安全。

其次,欧盟人工智能法案强调了对人工智能系统的透明度和可追溯性的要求,这可能促使全球范围内的企业重新评估他们的产品设计和运营方式,以确保符合更高的道德和法律标准。此外,法案中对于高风险应用的严格限制,也可能导致全球市场对于这些技术的接受度和发展速度发生变化。

最后,欧盟人工智能法案的实施还可能引发国际合作和竞争,各国可能会寻求共同制定国际标准,以便在全球范围内统一人工智能的监管。这种合作不仅有助于促进技术创新,还有助于避免贸易壁垒和保护主义措施的出现。