Meta 计划发布多模态版本的 Llama 模型,这意味着该模型将能够处理文本、视频、图像和音频,而非仅限于单一格式。Llama 作为一个开源模型,允许用户自由下载和调整。
然而,Meta 发言人确认,该模型不会在欧盟市场发布。这一决定反映了大型科技公司与欧盟监管机构之间日益紧张的关系,特别是在监管环境日益严格的背景下。
Meta 发言人表示:“我们将在未来几个月内推出多模态版本的 Llama 模型,但由于欧洲监管环境的不可预测性,我们不会在欧盟发布。”
欧盟正在实施《欧盟人工智能法案》,该法案将于下个月生效,并将对大型科技公司实施新的监管要求,其中包括《数字市场法案》(DMA)。
Meta 对多模态 Llama 模型的决定与该模型是否符合欧盟通用数据保护条例(GDPR)有关。此前,Meta 被责令停止使用欧盟 Facebook 和 Instagram 用户的帖子训练其 AI 模型,因为担心此举可能违反隐私规则。
爱尔兰数据保护委员会,负责监督 Meta 是否遵守 GDPR,表示正在继续与 Meta 就模型训练进行讨论。
然而,Meta 担心其他欧盟数据监管机构可能会干预监管流程,并阻止该模型的审批。Llama 的文本版本已在欧盟发布,新的纯文本版本也将很快在欧盟发布,但这些模型并未使用欧盟 Meta 用户数据进行训练。
值得注意的是,苹果公司上个月也宣布,由于担心违反 DMA,它将不会在欧盟推出部分新的人工智能功能。
Meta 一直计划在其 Ray-Ban 智能眼镜和智能手机等产品中使用多模态 Llama 模型。Axios 最早报道了有关 Llama 的决定。
Meta 周三还宣布,在巴西政府对使用用户数据训练模型的隐私问题表示担忧后,该公司已暂停在巴西使用生成式人工智能工具。该公司表示,已决定在与巴西数据管理部门进行谈判期间暂停使用这些工具。
Meta 此举表明,大型科技公司在应对全球日益严格的隐私和数据监管方面正面临着巨大挑战。欧盟和巴西等国家正在采取措施,限制大型科技公司对用户数据的访问和使用,以保护用户隐私和数据安全。
然而,这也可能对人工智能技术的发展和应用产生负面影响。Meta 等公司为了遵守监管规定,可能会限制其人工智能模型的训练数据来源和应用范围,从而限制了人工智能技术的进步和创新。
未来,大型科技公司需要找到平衡监管要求和技术发展的方式,才能继续推动人工智能技术的发展,同时保护用户隐私和数据安全。