欧盟委员会早在2020年就提出了《人工智能法案》,旨在应对人工智能带来的潜在负面影响。该法案主要针对美国大型科技公司,因为这些公司目前是先进人工智能系统的主要构建者和开发者。
不过,其他许多企业,包括非科技型企业,也将被纳入该法规的管控范围。这项法规为整个欧盟的人工智能制定了全面、协调的监管框架,采用基于风险的手段来监管人工智能技术。
英国年利达律师事务所技术、媒体和电信业务负责人坦吉·范奥弗斯特拉滕表示,欧盟《人工智能法案》是“世界上首部此类法案,它可能会影响许多企业,尤其是那些开发人工智能系统的企业,以及那些部署或仅仅在某些情况下使用人工智能的企业”。
该法案使用基于风险的方法来监管人工智能。这意味着,对于不同的人工智能技术应用方式,监管的力度将根据其对社会构成的风险程度而有所不同。
例如,对于被认为“高风险”的人工智能应用方式,将按照《人工智能法案》的严格要求进行监管。这种监管包括进行充分的风险评估和建立缓解措施、使用能够最大程度降低偏差风险的高质量训练数据集、定期记录活动,以及强制与监管机构共享有关模型的详细文件以评估合规性。
“高风险”人工智能系统的例子包括自动驾驶汽车、医疗设备、信贷审批系统、教育评分系统和远程生物特征识别系统。
此外,该法案还将全面禁止那些被列为“不可接受”风险的人工智能应用方式。例如,基于公民数据进行排序的“社会评分”系统、预测性执法,以及在职场或学校中使用情绪识别技术都属于“不可接受”风险的人工智能应用方式。
美国科技巨头,如微软、谷歌、亚马逊、苹果和元宇宙平台公司,一直在积极与其他公司合作,并投入巨资,试图在全球人工智能的热潮中占据领先地位。
考虑到训练和运行人工智能模型需要庞大的计算基础设施,微软Azure、亚马逊网络服务和谷歌云等云服务平台也成为人工智能发展的关键。
因此,大型科技公司无疑是这项新法规重点关注的对象。
通用人工智能模型,包括但不限于 OpenAI 的 GPT、谷歌的 Gemini 和 Anthropic 的 Claude,将受到《人工智能法案》的严格要求。例如,这些模型需要遵守欧盟版权法,披露其训练方式,以及定期进行测试和采取充分的网络安全措施。
然而,并非所有的人工智能模型都将受到同等的对待。人工智能开发者已经表示,欧盟需要确保开源模型,即供公众免费使用且可用于创建定制人工智能应用的模型,不会受到过于严格的监管。
欧盟确实针对开源生成式人工智能模型设定了一些例外情况。但要获得豁免资格,开源模型提供者必须公开其参数,包括权重、模型结构和模型使用情况,并确保“模型的获取、使用、修改和分发”是可行的。
根据《人工智能法案》,构成“系统性”风险的开源模型将无法享受豁免。
违反欧盟《人工智能法案》的公司可能被处以 750 万欧元(或其全球年营收的 1.5%,取两者中金额较高者)到 3500 万欧元(或其全球年营收的 7%)的罚款。具体罚款金额将取决于被处罚公司的规模和违规情节。
监管所有受该法案涵盖的人工智能模型的责任将由欧洲人工智能办公室负责。该办公室是一个由欧盟委员会于 2024 年 2 月设立的监管机构。
金融科技公司 Linedata 资产管理部门全球主管雅米尔·日瓦对消费者新闻与商业频道记者表示,欧盟“知道,如果他们希望法规能产生影响,他们需要对违规公司处以重罚”。
值得注意的是,尽管《人工智能法案》已经生效,但其大多数条款至少要等到 2026 年才会真正实施。