智能时代开启新篇章,人工智能(AI)等前沿科技与各行各业加速融合。然而,随之而来的问题也引发了广泛关注:AI的迅猛发展将把人类社会带向何处?我们该如何理性看待技术变革?
2024年9月5日至7日,备受瞩目的外滩大会在上海盛大举行。作为全球范围内具有重要影响力的金融科技和前沿科技盛会,外滩大会搭建了科技与人文交流的桥梁,成为了观察中国人工智能产业发展和应用的窗口。
会上,黄山景区智能体的正式发布,讯飞星火医疗大模型和国盾量子的产品展示,以及中国科学技术大学网络空间安全学院参与全球Deepfake攻防挑战赛的表演赛出题,都彰显了“安徽场景”和“安徽元素”在科技领域的积极参与和贡献。这些科技成果不仅展示了科技的人文深度和温度,也让“科技越向前,越为每个人”的理念逐渐成为现实。
更专业的AI
如同蒸汽机改变世界,源于其与轮船、火车、纺织机等产业的融合,人工智能领域也正经历着从“百模大战”到“产业应用”的关键转变。
数字分身辅助完成工作,脑机接口促进深度睡眠,人造肌肉纤维带来温暖拥抱……在外滩大会上,人工智能产业的全球性热潮得到了生动的展现。专家普遍预测,未来五年内,产业落地的成效将是衡量大模型技术持续发展的重要指标。
正如俗语所说,“专业的事情,交给专业的人去做”。每个人和每个行业的需求都具有独特性,对于旨在赋能千行百业的人工智能来说,更专业的需求,可能需要更专业的AI来解决。
因此,推动大模型从通用能力走向个性化应用,成为了人工智能领域的核心命题之一。
在本届外滩大会上,黄山景区联合支付宝,以蚂蚁百灵大模型为技术基础,首次推出了具有“空间”服务理念的“黄山空间智能体”,这也使黄山景区成为国内首个“全程AI伴游”景区。
智能体作为生成式人工智能的一种产品形态,是当前大模型应用的核心方向,能够让大模型拥有“手和脚”。而空间智能体则是以“AOI”(Area of Interest,兴趣区域)为主要的服务组织和呈现方式,当智能体感知到用户进入黄山景区空间范围内时,便会通过AI分析,并推送用户最可能需要的服务。
例如,用户在购买门票后准备出发前,“黄山空间智能体”可以提供景区温度信息、穿衣建议和智能推荐的路线攻略;当用户到达景区门口时,智能体可以自动调取门票二维码;当智能体识别到用户开始爬山时,可以为用户讲解沿途景点的相关知识;当用户到达景区出口时,可以一键生成旅行的趣味数据。此外,旅行过程中常用的共享单车、网约车等服务,也可以快速唤起打开。
“在人工智能发展浪潮下,文旅行业也正在开启并经历前所未有的技术和场景革命。”黄山旅游发展股份有限公司董事长章德辉表示,“相较于传统的‘一码游’和‘一机游’模式,‘黄山景区智能体’集成了大模型技术、文旅知识库、大数据算法和语音交互,并能够实现自主学习、自我进化,是最新型的应用产品。虽然目前这只是一个初阶探索产品,还需要持续迭代升级,但这标志着我们在文旅产业数字化转型方面迈出了革命性的一步。”
“科技人文之问”的启示
人类历史上每一次技术革新,都伴随着“兴奋”与“焦虑”两种情绪。
如何应对人工智能与人类抢夺工作机会?人类的思考能力会因人工智能而退化吗?“人机共生”时代距离我们还有多远?人工智能有可能超越工具属性,获得意识,甚至建立人工智能文明吗?……从外滩大会发布的“科技人文十问”中可以看出,大众对人工智能持有复杂的情感,其中蕴含不少技术焦虑。
未来向上向前,科技向善向美。无论突破性技术如何变革,以人为本始终是首要原则。
在外滩大会现场,一位24岁的青年周键,尽管在12岁时失去了右臂,却借助人工智能和脑机接口技术,用仿生手弹奏了一首钢琴曲《大鱼》,让观众直观感受到科技发展服务于人类福祉的现实意义。
值得注意的是,新科技变革在带来新场景、新业务、新市场的同时,也为科技伦理带来了前所未有的风险和挑战。如何在促进人工智能技术快速发展的同时,又确保其安全性、可靠性和可控性,让AI更负责任地造福人类社会,成为了重要课题。
以人工智能大模型为例,当前大模型正在各行各业加快落地,特别是对医疗、金融等严谨行业的重塑力度前所未有,而这些行业也是对伦理规范要求最高、伦理关系最复杂的领域。
讯飞医疗研究院副院长赵景鹤在外滩大会上分享了讯飞星火医疗大模型目前的应用进展以及安全伦理探索。针对大模型在医疗场景应用面临的问题,他认为,“主要集中在数据隐私、知识产权和道德责任三大方面。只有让大模型真正解决这些问题,才能真正辅助医生、患者、科研等各个场景。”
“从解决方案角度来看,不仅需要政府层面进行监管、立法,为大模型的落地提供合法性、合规性的保障;企业也需要遵循医疗的本质,采取措施加强数据保护、获得必要的版权授权、确保模型的公正性和合规性,同时提高透明度,并加强公众教育。”赵景鹤补充道。
作为安徽重要的科创企业之一,国盾量子此次也展示了多款与办公信息安全相关的产品。“例如,我们这款蓝牙耳机,融合了国盾量子自主研发的语音通讯隐私保护技术,可以有效保护用户在通话、语音消息留言等过程中的隐私信息,让用户在沟通交流中更加安心。”国盾量子方案技术总监张如通介绍。
关于如何确保科技始终造福于人类福祉,一些专家持较为乐观的观点。“我们今天所担心的许多问题,或许并不是最难解决的,真正的挑战可能是我们还未曾想象到的未知问题。要实现我们期望的由人工智能驱动的未来,最好的途径之一就是积极参与其中。”著名未来学家凯文·凯利在外滩大会上表示。
用AI治理“AI诈骗”
随着人工智能技术的飞速发展,利用深度学习算法实现音视频内容模拟和伪造的深度伪造技术(Deepfake)也日益成熟,近年来发生的“AI换脸诈骗”等恶性事件引发了人们对技术应用风险的思考。
利用人工智能技术精准识别和防范“AI换脸”风险,即“用AI打败AI”,或许是一种有效的途径。然而,人工智能生成的假内容真的可以被人工智能识别出来吗?
一场聚焦“AI换脸”技术欺诈风险的比赛给出了答案。在外滩大会AI创新赛·全球Deepfake攻防挑战赛的表演赛上,由中国科学技术大学网络空间安全学院和蚂蚁数科天玑实验室联合出题,选手们用各自研究的人工智能模型对被用AI修改过的图像和视频进行检测和识别。
在图像赛道中,选手需要用自己的参赛模型对9张肉眼难以辨别真假的图片进行评估,并给出每张图片的伪造概率值,最终将概率值最高的2张照片与正确答案进行比对。在视频赛道环节,选手同样需要通过人工智能模型来辨别视频真伪。
值得注意的是,现场选手比分显示,在一些难度一般的赛题上,双方结果比分接近,伪造识别率几乎都在80%以上;但在一些高难度赛题上,模型结果差异悬殊。
现场有人提出疑问:“为什么肉眼觉得一眼假的画面,人工智能却不能完全答对?而肉眼难以辨别的画面,人工智能反而1秒识别?”
对此,新加坡科技研究局前沿人工智能研究中心首席科学家周天異认为,人类在判断图像是否伪造时,会依赖直觉和逻辑,比如将其他人的脸换到电影演员的脸上,人类一眼就能认出,而人工智能却无法理解背后的故事。但人工智能不像人类那样容易受到情绪干扰,它会一丝不苟地执行指令。从这个角度来看,人工智能在工作效率和稳定性方面比人类“高出一筹”。
然而,研发检测算法只是遏制深度伪造技术滥用的一种方式,相对来说也较为滞后。要从源头上防范欺诈行为,需要从标准和立法的角度入手,要求对AIGC内容建立通用标识,比如在每个由AIGC生成的视频或图片的文件信息中添加签名或水印,这样对于平台管理会更有依据。
“对于大众来说,深度伪造技术很有可能,甚至已经逐渐走入我们的生活,甚至会对个人隐私造成泄露。”中国科学技术大学网络空间安全学院周文柏教授建议,不要轻易在公共场合展示个人的人脸数据,尽可能避免人脸数据的泄露,“随着合成技术的不断提升,对我们的欺骗也会越来越深。但只要我们能够保持警惕,依然可以很大程度上避免受到诈骗的危害。”