欧盟《人工智能法案》于2023年8月1日正式生效,标志着全球首部全面监管人工智能的法规正式落地。这一举措引发了全球范围内的关注,许多国家和地区都正在积极制定人工智能管制规则,欧盟的先发优势为后来者提供了重要的借鉴意义。
欧盟在制定《人工智能法案》的过程中,强调在维护民主、人权和法治的基础上,推动值得信赖的人工智能的普及应用。为了有效管控人工智能带来的风险,该法案采用了一种基于应用场景而非技术本身的分类管理方式,将人工智能的风险等级划分为四类,并根据风险等级制定相应的管控措施。
其中,风险等级最高的“禁止”类应用包括利用人工智能技术操纵人的潜意识以唆使犯罪,以及使用高级监控摄像机等技术,将人脸识别等生物识别技术实时应用于犯罪搜查等场景。这些应用被认为对个人隐私和社会安全构成了严重威胁,因此被明令禁止。
其次是风险等级较高的“高风险”类应用,包括基于犯罪心理画像的犯罪预测、在入学考试和录用考试测评中应用人工智能等场景。这类应用虽然没有被直接禁止,但也需严格管控,包括要求使用方记录和管理人工智能技术的使用历史,确保透明度和可追溯性。
除了上述两类风险等级最高的应用之外,该法案还对其他风险等级的人工智能应用提出了相应的管控措施,例如要求聊天机器人等人工智能系统向用户明确告知其与机器互动的事实,以及要求人工智能技术提供商确保合成音频、视频、文本和图像内容能够被识别为人工智能生成的内容等。
为了确保《人工智能法案》的有效实施,该法案规定了针对不同违规行为的处罚措施。对于涉足“禁止”领域的行为,企业将面临最高3500万欧元或全球年销售总额7%的罚款。对于其他风险等级的违规行为,则根据业务规模等因素,处以最高1500万欧元或全球年销售总额3%的罚款。
值得注意的是,《人工智能法案》的实施将分阶段进行,部分规则将在该法律通过6个月后或12个月后生效,而大部分规则将于2026年8月2日开始生效。这表明欧盟在人工智能管控方面采取了一种循序渐进的策略,既要确保人工智能技术的健康发展,又要防止其对社会造成负面影响。