自2022年11月发布以来,许多人都在使用ChatGPT来帮助他们完成工作,各行各业的人都在使用,从撰写营销材料,到起草电子邮件,再到生成报告。
ChatGPT作为一种人工智能工具,在科研中也显示非常大的应用潜力,但人们对在科研活动中ChatGPT的应用范围和伦理仍有争论。
2023年7月7日,Nature新闻栏目发表了一篇讨论性文章,题为《Scientists used ChatGPT to generate an entire paper from scratch — but is it any good?》
文中介绍道:
两位科学家借助人工智能工具ChatGPT,在不到一个小时的时间内撰写了一篇研究论文。
这篇文章流畅、富有洞察力,并按照科学论文的预期结构呈现。但研究人员表示,在该工具真正提供帮助之前,还有许多障碍需要克服。
以色列海法工业技术研究所的生物学家和数据科学家Roy Kishony表示,我们的目标是探索ChatGPT作为一个研究“助理”的能力,并引发关于其优点和缺陷的讨论。
他说:“我们需要讨论如何在减少缺点的情况下获得好处。”
论文的构建过程介绍
Kishony和他的学生Tal Ifargan(也是一名数据科学家)从美国疾病控制和预防中心行为风险因素监测系统(US Centers for Disease Control and Prevention’s Behavioral Risk Factor Surveillance System)下载了一份公开可用数据集。
该数据集包括从超过25万人那里收集到的关于其糖尿病状况、水果和蔬菜摄入量和体育活动的信息。
首先,他们要求ChatGPT代写代码用来发现数据中的模式,以便进一步深入分析。
在第一次尝试中,聊天机器人生成的代码充满了错误,无法工作。但当科学家将错误信息反馈给它,并要求其纠正错误时,它最终生成了可以用来探索数据集的代码。
有了一个更结构化的数据集后,Kishony和Ifargan随后要求ChatGPT帮助他们制定一个研究目标。
该工具建议他们探索体育活动和饮食对糖尿病风险的影响。
生成了更多的代码之后,ChatGPT得出结论:多吃水果和蔬菜以及加强锻炼可能会降低患糖尿病的风险。
然后,ChatGPT被要求在表格中总结关键发现,并编写整个结果部分。
接着,他们逐步地要求ChatGPT撰写摘要、引言、方法和讨论部分。
最后,他们要求ChatGPT完善文本。
但问题也扑面而来……
尽管ChatGPT生成的论文清晰明了,数据分析也扎实,但Kishony表示:这篇论文还远非完美。
研究人员遇到的一个问题是ChatGPT倾向于通过编造数据来佐证自己的观点,在这种情况下,它产生了虚假的引用和不准确的信息。
例如,耶路撒冷希伯来大学的计算机科学家Tom Hope说,这篇论文指出该研究“弥补了文献中的空白”——这个词在论文中很常见,但在这个案例中不准确。他说,这一发现“不会让任何医学专家感到惊讶,这还不够新颖”。Kishony还担心,这样的工具可能会使研究人员更容易参与欺诈行为,如P值调整(P-hacking)(只报告产生显著结果的那些)。
另一个担忧是,使用生成型AI工具撰写论文的便利性可能导致期刊被低质量论文所淹没。
不过,Kishony补充说,以人类监督为核心的数据转化成论文方法,可能是确保研究人员能够轻松理解、检查和复制方法和发现的一种方式。
澳大利亚南澳大学开发人工智能教育技术的Vitomir Kovanović表示,人工智能工具在研究论文中的使用应该公开表明,否则,很难评估一项研究的发现是否正确。他说:“如果制作虚假论文变得如此容易,我们将来可能需要做更多工作”
麻省理工学院和哈佛大学布罗德研究所的计算生物学家Shantanu Singh认为,生成型AI工具有潜力通过执行简单但耗时的任务(如撰写摘要和生成代码)提升科研效率。
它们可以用于从数据集生成论文或发展假设。但是,由于幻觉和偏见对于研究人员来说很难检测,因此Singh认为,至少在可预见的未来,撰写整篇论文,不会是一个特别好的用途。
牛津、剑桥等解除ChatGPT禁令
24所顶尖大学发布使用原则
其实不久前,还有一位科学家用ChatGPT搞出了一件大事情。美国田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了其中5篇。
2023年3月,《J Med Internet Res》(IF=7.4)在线发表了一项关于ChatGPT的文章,题为Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened。研究者利用ChatGPT生成了一篇完整的神经外科论文,在用词、句子表述、论文结构方面都与真正的医学论文非常相似,包含1992个词和17篇参考文献,整个文章创建过程大约花了1个小时。
必须说,随着ChatGPT的入局,AIGC(人工智能生成内容)数量井喷,尤其是在学界,ChatGPT更是成为科研人员的得力助手。
值得一提的是,就在7月4日,牛津、剑桥、布里斯托、爱丁堡等24所罗素大学成员集体松口,宣布解除ChatGPT使用禁令,并推出了详细的使用原则,以帮助学生和研究人员更好地使用生成式AI,抓住生成式AI带来的全新教育和发展机遇。
要知道,早在今年3月,学生利用ChatGPT写论文、做作业就已然形成了一股势不可挡的浪潮,英国教育部对此,表示十分担忧,牛津、剑桥、布里斯托、爱丁堡等8所罗素大学成员更是宣布禁止使用ChatGPT。
显然,他们不想错过生成式AI带来的全新教育和发展机遇。
为了帮助学生、科研人员和教职员工在学习和研究中以合乎道德和负责任的方式使用生成式人工智能、新技术和ChatGPT等软件,罗素大学集团发布了生成式人工智能使用指南。该指南包括5项联合使用原则:
-
大学将支持学生和教职员工建立良好的人工智能素养。
-
教职人员应该具备能力,支持学生在学习过程中,有效且适当地使用生成式AI工具。
-
大学将调整教学和评估,以纳入生成人工智能的道德使用,并支持平等获取。
-
大学将确保学术严谨性和诚信得到维护。
-
随着技术及其在教育中的应用的发展,大学将合作分享最佳实践。
罗素集团首席执行官 Tim Bradshaw 博士评论道:“人工智能的突破已经改变了我们的工作方式,至关重要的是,学生获得了建立充实的职业生涯所需的新技能。大学工作人员在研究如何利用人工智能来增强教学并帮助将学科变为现实时也需要支持。”
自从ChatGPT横空出世,其强大的网络搜索引擎在学生中迅速流传开来,查阅复杂文献、代写简单的Python代码、辅助写作思路等。
不能否认人工智能对人类生活能带来的便捷,然而,如何有效遏制人工智能的泛滥,达到一种较为理想的共同生存状态,这是我们需要考虑的。
作为一款AI语言模型,ChatGPT能给你提供语法、拼写,乃至论文的结构、逻辑方面的建议。不过,ChatGPT所给的回答都是基于它模型训练的海量数据上,它有时可能会限制我们的思路,甚至有些不准确。
因此,在用ChatGPT助攻论文写作的过程中,把它当作一把锐利的副刀,而不是赖以生存的主刀,效果更好。
原文链接:https://blog.csdn.net/qq_32447879/article/details/134174598?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522169900313816800188544058%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=169900313816800188544058&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-3-134174598-null-null.nonecase&utm_term=%E6%BE%B3%E6%B4%B22023