近年来,全球人工智能技术迅速发展,应用范围不断扩大。特别是生成式人工智能如ChatGPT在多个领域推动创新,为各行业带来更多机遇。然而,人工智能的快速发展也伴随着安全隐患和风险挑战,尤其是在法律、伦理和人道主义方面的冲击以及对国际政治、经济、军事、社会等领域带来的复杂影响。
为了应对这一挑战,28个国家和地区在人工智能安全峰会上签署了《布莱奇利宣言》,共同致力于建立国际合作网络,加深对人工智能风险和能力的理解。而中国在今年10月提出了《全球人工智能治理倡议》,系统阐述了中国的人工智能治理方案,为全球提供了建设性解决思路。
中国倡议强调发展人工智能应以“以人为本”为理念,追求人类共同福祉,确保技术稳健和安全。同时,中国也提出遵循国际法,防范恐怖主义和跨国犯罪。人工智能发展可能带来意想不到的风险,需要国际合作进行有效治理。
中国在倡议中倡导建立健全的法律和规章制度,保护个人隐私和数据安全,同时坚持伦理优先,建立人工智能伦理准则和问责机制。这种法治化趋势反映了新型治理模式的需要,从“软法与硬法双轨并行、刚柔并济”来有效应对人工智能技术带来的挑战。
另外,人工智能技术的发展可能加剧发达国家和发展中国家之间的差距,形成所谓的“智能鸿沟”。中国提出各国在人工智能全球治理中应平等发展和利用技术的权利,增强发展中国家在治理中的代表性和发言权。这对于促进全球人工智能治理具有重要意义。
除了中国,一些国家和地区也在加强人工智能治理方面的工作。欧盟通过立法监管人工智能技术应用,美国制定新标准规范人工智能安全。其他国家如日本、新加坡、加拿大和德国也根据自身情况形成了不同的立法方向。这表明全球对人工智能治理的重视和努力。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。