筑牢人工智能安全监管制度防线

筑牢人工智能安全监管制度防线

图为特斯拉擎天柱机器人。本报记者 袁婧摄
党的二十届三中全会提出:“加强网络安全体制建设,建立人工智能安全监管制度。” 这一重大部署体现了党中央对人工智能发展与安全的高度重视,积极应对人工智能技术发展带来的潜在风险。
为了更好地预判和应对人工智能带来的挑战,有效推动其健康发展,我们必须深入解析人工智能技术可能引发的社会风险特征,进行前瞻性预测、科学约束和有效引导,构建兼顾发展与安全的治理体系。这不仅是确保人工智能安全应用的关键,也是提升社会治理效能的重要途径。
人工智能时代社会风险的全新特征
当前,我们正步入一个高度不确定性的“风险社会”时代。人工智能技术正在深刻改变现代社会的运行机制和规则,对人类传统的价值理念和行为模式带来系统性的重构,进而引发一系列新的社会风险。这些风险呈现出以下四个显著特征:
第一,人工智能技术提升了风险信息的传播速度和范围,使得社会风险具有明显的蔓延性。人工智能技术降低了信息生成门槛,扩大了信息传播的广度和深度,风险事件的影响范围迅速扩大,形成强烈的蔓延趋势。同时,人工智能技术通过对用户情绪和行为进行分析和预测,能够识别和放大特定情绪反应,例如恐慌或愤怒。当某个风险事件引发了强烈的情绪反应时,人工智能系统可能会优先推荐和传播此类信息,进一步加剧公众情绪,形成极强的感染性和蔓延性。如果没有有效的监管和控制,这种扩散可能会对社会安全和秩序造成严重影响。
第二,人工智能技术模糊了社会系统中虚拟世界和现实世界的界限,使得社会风险具有级联性。人工智能技术使得人与人、人与物、物与物之间高度耦合,虚拟世界和现实世界相互交织,形成一个复杂的网络系统。许多社会活动通过虚拟平台进行,并与现实情境密切相关。虚拟世界中的数据泄露可能会导致现实世界中的身份盗用,社交媒体上的舆论可以迅速影响现实世界中的社会行为和决策。反之,现实世界中的安全事件也可能通过数据传输影响虚拟世界的安全。这种虚实互动会导致社会风险的级联效应。此外,智能技术赋能下,各社会系统之间高度互联,许多决策过程实现自动化,但自动化系统可能存在错误决策的风险,从而引发一系列连锁反应,导致风险的级联性传播。
第三,人工智能技术的应用可能会引发一系列初始风险,并在解决或缓解这些风险的过程中,进一步引发一系列次生风险,形成复杂的风险链条,使得社会风险具有衍生性。风险事件可以跨越不同领域,在多个层次上传导,形成次生风险。例如,网络攻击不仅会导致信息泄露,还可能通过影响物联网等,引发现实世界中的事故,如交通堵塞、医疗设备故障等。数据错误或算法缺陷也可能衍生出许多次生风险。例如,算法偏见所导致的决策机制不公平现象,往往会引发社会的不满和冲突。而风险事件通常会造成公众行为和心理的变化,进而衍生新的次生风险,形成风险链。
第四,人工智能技术依赖于大量数据进行训练和操作,依靠算法进行决策,数据泄露或滥用可能不会立即造成明显影响,决策过程和结果可能在短期内看不出问题。但随着时间的推移,数据滥用和算法偏见的累积效应会逐渐显现,使得社会风险具有滞后性。同时,人工智能技术高度依赖技术基础设施和自动化系统,这些系统故障或设计缺陷可能在短期内不易被发现,但随着时间的推移,问题逐渐积累可能导致系统性风险。智能技术的应用对社会行为和心理有深远影响。例如,长期使用智能推荐系统可能导致信息茧房效应,使用户的视野变狭窄,进而影响社会的多样性和包容性。
实现“面向人工智能的治理”的四种策略
为了有效应对人工智能技术发展可能引发的社会风险及其全新特征,我们必须有针对性地变更传统风险治理模式。一方面,我们要充分利用人工智能技术,提升风险识别和预警效率,实现“基于人工智能的治理”。另一方面,我们要有效防范和预警人工智能技术应用可能带来的风险,实现“面向人工智能的治理”,构建“技术赋能社会治理、治理防范技术滥用”的双向治理逻辑。
首先,利用多模态数据识别复杂交互关系,提升风险识别与预警的准确性。多模态数据是指对于同一描述对象,通过不同领域或视角获取的数据,用来表示不同形态的数据形式或同种形态的不同格式。多模态数据融合技术能够充分挖掘和利用数据间的互补信息,更全面地表征对象特征,识别或推断更复杂的交互关系,实现对社会复杂巨系统的实时感知、关联分析和态势预测,不仅可以提高风险识别的准确性,构建更具灵活性的风险评估和预警框架,实现风险管控的前瞻性和动态性,还可以有效整合风险预警与响应过程中彼此独立的决策过程,为不同决策主体间的协同提供基础方法和工具。因此,可以通过整合来自不同领域的不同模态数据,将文本、图像、音频和传感器数据等不同模态的数据进行综合分析,应用机器学习、深度学习等技术,识别数据之间的复杂交互关系。促进政府、企业、社会组织、学术机构等多方协作,建立跨部门的信息共享机制,整合多模态数据资源,构建实时预警系统,及时发现和预警潜在风险。
其次,结合智能技术发展应用水平制定个性化风险治理方案,防止出现风险应力集中现象。由于不同区域间经济社会发展与人工智能技术应用水平存在差异,进而导致风险响应能力的不一致,社会风险的跨区域传播演化呈现不均衡的现象。需要结合区域发展实际制定个性化风险治理方案,通过多主体多区域协同降低局部应力,避免形成社会系统的结构性破坏。因此,人工智能技术的风险治理首先要评估不同区域的人工智能技术应用水平,并分析包括应急资源、技术基础设施、管理能力在内的风险响应能力,识别区域风险应对的强弱点。根据不同区域的具体情况,制定个性化的风险治理策略。例如,经济发达地区可以重点加强技术安全和数据保护,而经济欠发达地区则需要提升基础设施建设和技术普及。通过政策支持和资金投入,推动技术落后地区的智能技术应用水平提升,缩小区域间技术差距和风险响应能力差异。
再次,平衡技术发展与风险规制,优化风险治理总成本,做到数智技术既“管得住”又“放得活”。人工智能风险治理需要兼顾“安全”与“发展”,既要规避治理失效造成的经济社会损失,又要防止过度治理带来的经济社会效益降低。人工智能风险治理的成本包括治理机制生效与失效状态下风险预防成本、社会失效成本与社会效益损失成本等众多成本要素。可根据技术的成熟度和应用场景,适时调整监管强度。在技术初期阶段,采用宽松监管,鼓励创新;在技术成熟期,加强监管,确保安全和规范。在制定风险治理策略时,需要量化不同成本要素,进行成本效益分析,选择最优治理方案,既有效控制风险,又避免不必要的治理成本。同时,为有效降低风险治理成本,可提供政策和资金支持,鼓励企业和科研机构开展安全技术创新,在推动人工智能技术创新的同时,确保安全保障措施的同步发展。
最后,超前研判人工智能技术发展可能引发的社会风险,妥善制定人工智能社会风险监管制度与标准。人工智能技术的快速发展迭代往往快于政策和法律的制定和调整,导致面向人工智能的治理政策标准具有一定的滞后性。因此,需要将人工智能技术应用嵌入社会治理中,面向人工智能社会风险制定相关的安全监管制度与行业标准,在推动智能技术应用场景建设与发展的同时,确保政策和法律能够与技术发展同步。应定期进行人工智能技术发展趋势分析,从技术、伦理、法律、经济和社会等多个维度进行综合评估,建立人工智能风险预警机制,及时发现和预判新兴技术带来的潜在风险,研究制定灵活且具有前瞻性的政策和法规。此外,还应积极参与国际标准和法规的制定,建立跨国合作平台,促进各国在人工智能治理方面的合作与交流,共同应对全球性的技术风险和挑战。
(作者单位:同济大学经济与管理学院)
筑牢人工智能安全监管制度防线

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 8月 12日 下午12:10
    下一篇 2024年 8月 12日 下午12:27

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!