国际科学编辑
   电话:0512-67621565
   邮箱:info@iseediting.com
  
 写作技巧  沟通技巧  国际出版最新动态  期刊解析  行业资讯

  国际出版最新动态

当前位置:首页  >  学术资源  >  国际出版最新动态  >  剑桥大学推出人工智能研究伦理政策  
剑桥大学推出人工智能研究伦理政策
作者:    来源:   时间:2023-05-22   访问量: 456  

编者按:剑桥大学推出的新准则将帮助研究人员使用ChatGPT等生成性人工智能(AI)工具进行研究,同时坚持围透明度、学术诚信、准确性和原创性的学术标准。

这些规则载于剑桥大学出版社(Cambridge University Press)的第一份AI伦理政策,适用于研究论文、书籍以及其他学术作品。其中包括禁止将人工智能作为出版的学术论文和书籍的作者。

此举为学术界提供了明确的信息,因为大家都在担心在研究中使用强大的大型语言模型(如ChatGPT)会引起误导或产生研究缺陷,但同时又惊讶于其潜力。

剑桥大学学术出版部总负责人Mandy Hill表示:“生成性人工智能可以促进新的研究和实验途径。研究人员已经要求我们提供指导,以帮助其更好地使用。”

"我们相信作者、审稿人和编辑应该在适当的指导下自由使用新兴技术,就像他们使用其他研究工具一样。

"与学术界一样,我们正以批判性参与的精神来对待这项新技术。在优先考虑透明度、问责制、准确性和原创性方面,我们认为在使用生成的人工智能进行研究方面,连续性和变化性一样多。

很明显,像ChatGPT这样的工具不能也不应该被当作作者对待。我们希望我们的政策能够帮助我们每年出版的成千上万的研究人员,以及他们的众多读者。在我们面对人工智能的潜在偏见、缺陷和机会的同时,我们将继续与他们合作。

California Institute of Technology的政治和计算社会科学教授R. Michael Alvarez说:“生成性人工智能向学术研究人员和教育工作者引入了许多问题。

作为剑桥大学出版社的编辑,我很欣赏该出版社在概述我们如何在研究和写作中使用这些新工具的准则和政策方面所发挥的领导作用。

我预计,在未来的许多年里,我们将就生成性人工智能为学术出版带来的机遇和隐患进行更多的对话。”

研究出版中的人工智能政策

剑桥大学关于研究出版中的生成性人工智能的原则包括:

  • 在研究论文等出版物中必须声明和明确解释对人工智能的使用,就像学者们对其他软件、工具和方法所做的那样。
  • 鉴于问责制的需要,人工智能不符合本出版社对作者的要求。AI和LLM工具不得被列为剑桥大学出版的任何学术作品的作者。
  • 任何对人工智能的使用都不得违反剑桥大学的学术诚信政策。学术作品必须是作者自己的,而不是在没有充分引用和透明的参考资料的情况下呈现他人的想法、数据、文字或其他材料。
  • 作者要对其研究论文的准确性、完整性和原创性负责,包括对人工智能的任何使用。

每年,剑桥大学在400多种同行评审的期刊和1500种研究专著、参考书和高等教育教科书中出版了数万篇研究论文。


 
 服务项目  关于我们  工作流程  公司新闻  客户反馈  写作技巧  联系我们  期刊推荐  
 
Real Time Analytics Real Time Web Analytics