AI写作痕迹渐显:生物医学论文中的LLM“印记”
在科技飞速发展的今天,人工智能(AI)正以前所未有的速度渗透到各个领域,学术写作也不例外。然而,随着AI在论文写作中的广泛应用,一些“不速之客”也开始悄然潜入,它们就是大型语言模型(LLM)留下的独特写作“印记”。
最近,《自然》杂志的一篇报道揭示了这一现象。研究团队在分析了2024年PubMed上发表的150万篇生物医学研究摘要后,发现其中超过20万篇都频繁出现了LLM的特征词。这些词汇,如“unparalleled”、“invaluable”、“heighten”等,大多只是改变了文章的文体风格,而并未对内容产生实质性影响。但正是这些看似无关紧要的词汇,却成为了揭示LLM参与论文写作的“蛛丝马迹”。
自从ChatGPT等LLM首次实现在学术领域生成接近人类水平的文本以来,许多作者开始将LLM融入日常写作,甚至与其合作撰写论文。然而,这种合作并非总是那么隐秘。和人类作者一样,LLM也喜欢在论文中留下自己的独特印记。研究团队通过构建词汇出现的二元矩阵,计算每年词汇频率,并将实际频率与预期频率的差值和比值作为衡量超额使用的指标,从而发现了LLM的这些“小动作”。
实验结果显示,在2024年以前,类似“coronavirus”的名词被超额使用;而到了2024年之后,则以“intricate”、“notably”等与研究内容无关的风格词为主。这些词汇中,66%是动词,如“delving”、“emphasizing”,16%为形容词,如“crucial”、“pivotal”。这些词汇的频繁出现,让使用LLM的论文极易被察觉。
进一步的研究还发现,在不同学科、地域和期刊中,LLM的使用也存在显著差异。在计算领域、生物信息学等学科中,由于行业技术日新月异,研究者需要迅速掌握新技术,因此更依赖LLM协助,约占20%。而在中国、韩国等非英语国家中,由于需要LLM辅助英语写作,LLM使用率可达15%。相比之下,像英国、澳大利亚等英语国家的LLM使用率则相对较低。此外,一些低门槛的开放获取期刊,如MDPI旗下的《Sensors》,LLM使用率可达24%,而像《Nature》、《Science》等顶刊只有6%到8%。
然而,随着LLM在学术写作中的日益普及,一些问题也逐渐浮现。例如,如何准确量化LLM在学术论文中的占比?如何更好地让AI参与学术写作?AI使用的边界在哪里?这些问题都值得我们重新思考。
值得注意的是,一些作者已经开始注意到LLM留下的这些“印记”,并尝试通过特定提示词来修改文本,以规避明显的AI痕迹。然而,这种人为干预虽然可以在一定程度上调整输出,但无法完全消除LLM的影响。因此,未来我们需要更加深入地研究LLM在学术写作中的作用,以及如何更好地利用这一技术为学术研究服务。
简而言之,LLM在科研工作中的影响力日益增长,但同时也带来了一系列挑战和问题。我们需要以更加开放和包容的心态面对这一技术变革,同时也要保持警惕和审慎,确保学术研究的真实性和可靠性。
上一篇文章 :
宇树科技智能机器人体验店亮相郑州,Go2机器狗成焦点
下一篇文章 :
网络安全硬件行业:政策领航,未来展望