澳大利亚伊迪斯·科文大学的研究人员最近利用人工智能驱动的图像生成平台Midjourney创建了奥运会代表队的图像。Midjourney 是一款 AI 绘画工具,只需输入文字描述,就能在 1 分钟内生成相应的图片。
这项研究使用了 Midjourney 生成不同国家和地区的奥运代表队图像,结果显示,AI 呈现的图像存在明显的偏见。例如,澳大利亚队被描绘成拥有袋鼠身体和考拉头的形象,希腊队则穿着古代盔甲,埃及队穿着法老服饰,尼日利亚队穿着传统民族服饰,日本队穿着和服,印度队队员的眉心点着红点。
值得注意的是,在生成的 40 张图像中,男性运动员数量是女性的 5 倍,男性占比高达 82%。这反映了人工智能在体育领域对性别刻板印象的复制。
此外,研究人员还发现人工智能在运动项目方面也存在偏见。例如,加拿大队被描述为曲棍球运动员,阿根廷队被描述为足球运动员,荷兰队则被描述为自行车运动员。这说明人工智能倾向于将这些国家与国际上认可度较高的主流运动项目联系在一起,而忽略了其他可能的运动项目。
研究人员指出,人工智能的这些偏见源于人类的偏见,因为人工智能算法是从人类认知角度理解问题的。人类的认知偏差和偏见被反映在人工智能的输出中,随着对技术的依赖不断加深,这些偏见可能导致不平等、错误的归纳和歧视等问题。
这一研究提醒 AI 开发者需要改进算法,减少偏见。虽然未来的新技术可能会找到更好的算法和输出方法,但人工智能仍将专注于完成任务,而不是提供真实的呈现。因此,社会需要对人工智能的有效性进行质疑,并批判性地评估人工智能生成的信息。教育用户认识到人工智能的局限性,将有助于人工智能与真实信息的共存,并提高用户对其输出的判断能力。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。