🌓
搜索
 找回密码
 立即注册

《Science》杂志:ChatGPT正在挑战我们的科学范式

admin 2023-2-10 21:57:17 26773

SDI数字创新,专注Metaverse前沿洞察和专业服务。

要点


在不到 2 个月的时间里,人工智能 (AI) 程序 ChatGPT 已经成为一种现象级的轰动。它可以通过该工具的开发者 OpenAI 创建的门户网站免费访问。该程序根据书面提示自动创建文本,因此受到广泛欢迎,以至于近期经常出现负荷过载的情况。

ChatGPT(生成式预训练转换器)是使用一种称为从人类反馈中强化学习的技术开发的,用于训练语言模型,使其具有很强的对话性。然而,正如该网站所述,“ChatGPT 有时会写出看似合理但不正确或荒谬的答案。” 几个例子显示了它可能犯的明显错误,包括引用一项不存在的科学研究。

目前的许多担忧与 ChatGPT 对教育的可能改变有关。更令人担忧的是 ChatGPT 对撰写科学论文的影响。在最近的一项研究中,由 ChatGPT 创建的摘要被提交给学术审稿人,他们只发现了 63% 的假文章。


多年来,科学系列期刊的作者都签署了一份许可,证明“该作品是原创的”。对于科学期刊,“原创”一词足以表明 ChatGPT 编写的文本是不可接受的:毕竟,它是从现有成果中抄袭的。此外,我们的作者证明他们自己对论文中的研究负责。尽管如此,为了明确起见,Science等期刊现在正在更新许可和编辑政策,并指定不能在作品中使用由 ChatGPT(或任何其他人工智能工具)生成的文本,图形、图像或图形也不能是此类工具的产品。人工智能程序不能成为作者。违反这些政策将构成科学不端行为,与篡改图像或抄袭现有作品无异。当然,有许多合法的数据集(不是论文的文本)是人工智能在研究论文中有意生成的,这些不在本次变更的范围内。

科学期刊处理的大多数科学不端行为的发生都是因为人类关注不够。过去学术不端多数是通过使用图像处理程序(例如 Photoshop)或从其他来源复制文本来实现的。更改后的图像和复制的文本可能不会引起注意,因为每个作者对它们的审查太少。当编辑和审稿人不听取他们内心的怀疑,或者当我们未能敏锐地关注细节时,错误就会发生。在人们对科学的信任正在削弱的时候,科学家们重新致力于对细节和细致的关注尤为重要。


科学记录归根结底是人类为解决重要问题所做的努力之一。机器发挥着重要作用,但它是人们提出假设、设计实验和理解结果的工具。最终,产品必须来自,也并须由我们头脑中美妙的奇思妙想来表达。但是ChatGPT的出现正在挑战着我们的科学范式。


  看更多精彩内容 请点击下方视频号  

  SDI近期直播,敬请关注!

  往期前沿  

最全回顾!ChatGPT的前世今生
教育元宇宙是福还是祸
学术界对Metaverse定义的系统梳理

看更多精彩内容记得点击关注哟!


声明:本文仅用于公信息普及,不涉及商业服务,如涉及版权问题,请联系我们删除或做相关处理。

110325.jpg
随机推荐

最新主题

1 回复

路过
高级模式
游客
返回顶部