科研活动中规范使用人工智能技术:中国科学院发布八条提醒

中国科学院科研道德委员会于9月10日发布了《关于在科研活动中规范使用人工智能技术的诚信提醒》(以下简称《诚信提醒》),旨在提醒中国科学院科技人员和学生在科研活动中规范使用人工智能技术。
人工智能技术的迅猛发展和广泛应用为科学研究带来了前所未有的机遇和挑战。一方面,人工智能技术可以有效提高科研效率,推动科学研究的创新发展;另一方面,人工智能技术也可能被用于学术不端行为,例如通过算法伪造数据,生成虚假研究论文,导致论文代写、抄袭剽窃等问题的泛滥,严重损害科学研究的可信度。
《诚信提醒》由中国科学院科研道德委员会组织院内外专家,对人工智能技术在科研活动全流程应用中可能存在的问题进行了深入探讨和研究,并广泛征求了各方意见,最终形成八条具体建议。
这是中国科学院科研道德委员会自2018年以来连续第七年发布诚信提醒。此前,该委员会已发布了六份诚信提醒,聚焦学术评议、科技奖励推荐、学术成果发布、科研原始记录、科研伦理、论文署名等科研活动的关键环节,倡导科研人员诚实守信,取得了积极的反响。
《诚信提醒》明确指出,在科研活动中的各个环节,应合理使用人工智能技术,防止其被恶意利用。具体来说,在以下方面需格外注意:
1. 在科研选题、文献检索和资料整理阶段,可以借助人工智能技术跟踪研究动态,收集整理参考文献,但必须对人工智能生成信息的真实性、准确性和可靠性进行严格辨识。严禁直接使用未经核实的由人工智能生成的调研报告、选题建议、文献综述等。
2. 在申报材料撰写阶段,如使用了由人工智能生成的内容,应明确责任,全面如实声明使用情况。严禁直接使用未经核实的由人工智能生成的申报材料。
3. 在数据收集和使用阶段,如使用了由人工智能生成的模拟仿真数据、测试数据等,或使用人工智能技术对原始数据进行统计分析,应全面如实声明使用情况。严禁将人工智能生成的数据作为真实实验数据。
4. 在音视频和图表制作阶段,可利用人工智能技术辅助完成,但应对生成内容进行标识,并全面如实声明使用情况。严禁使用人工智能直接生成音视频和图表,并将其作为原创作品。
5. 在科研成果撰写阶段,可使用人工智能技术辅助整理已有的理论、材料与方法等,可进行语言润色、翻译、规范化检查等工作。然而,严禁将人工智能生成内容作为核心创新成果,严禁使用人工智能生成整篇成果及参考文献。
6. 在同行评议阶段,严禁使用人工智能技术撰写同行评议意见,不得将评议信息上传至未经评议组织者认可的工具平台。
7. 在科研活动中使用人工智能技术时,应在注释、致谢、参考文献或附录等部分声明工具的名称、版本、日期及使用过程,严禁未加声明直接使用人工智能技术。
8. 在选择人工智能技术时,应使用经过国家备案登记的服务工具,严禁滥用人工智能技术,以防止数据安全风险,侵犯知识产权,泄露个人隐私等。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 9月 12日 上午10:22
    下一篇 2024年 9月 12日 上午10:37

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    zh_CNChinese
    欢迎来到AI快讯网,开启AI资讯新时代!