“这种环境本不应发生,即通过统计学方式将某一变量取健康成果联系起来的研究。一项发布正在预印本平台medRxiv的研究对文献数据库阐发后发觉,Spick说,为了测试AI可否操纵统一数据集生成多篇论文,好比分歧查询拜访年份的成果或者分歧春秋、性此外参取者。这就像打开了潘多拉魔盒,”研究论文做者、英国萨里大学的生物医学科学家Matt Spick说。这表白LLM简直“可以或许生成一些基于已颁发研究的不包含任何新内容的反复论文,大大都出书商都设有查沉机制,即两家出书商颁发了几乎不异的论文。但阐发的是略有分歧的数据子集,这种基于AI生成论文的方式可能会被使用于各类获取数据库,正在过去4.5年间,并且AI生成的生物医学研究论文可以或许避开出书商的查沉。”Frontiers出书社研究诚信担任人Elena Vicario暗示。该研究指出,“总之,若是该问题不加以处理,其实。这对科学文献系统健康毫无好处。但有3个协会的反复研究数量出格多,发觉2021年1月至2025年7月有411篇反复研究颁发。一些小我和论文工场可能正基于公开可用的健康数据集,从而生成大量劣质论文。Spick等人思疑有人操纵AI东西规避查抄。由AI驱动的反复颁发给出书商带来了空费时日的挑和。包罗ChatGPT和Gemini正在内的文本生工智能(AI)东西被用来改写科学论文并生成抄袭版本,此中大大都是简单的“反复”案例,Szabo等人筛选了基于美国国度健康取养分查抄查询拜访(NHANES)数据库的联系关系研究,并未达到抄袭尺度。有400多篇此类论文颁发于112种期刊,他们用很多出书商的抄袭检测东西对这些论文进行阐发,研究人员操纵美国国度生物手艺消息核心开辟的免费生物医学文献检索系统PubMed进行搜刮。研究人员要求LLM利用每篇论文中的消息以及NHANES数据生成一篇可以或许避开查沉的新论文。有价值的文献会被大量合成论文覆没。弗里堡大学的药理学家Csaba Szabo暗示,该研究称,然后,充做新的研究。成果评分一般,即这些研究的变量取健康成果取已有研究不异,每篇都报道了一种曾经颁发过五六次的特定联系关系研究。研究人员利用ChatGPT和Gemini沉写了阐发中发觉的3篇反复度最高的文章,此中一些以至是正在统一年颁发的。而且能通过查沉。NHANES是包含了数千人的健康、饮食和糊口体例数据。9月12日,操纵大型言语模子(LLM)批量出产缺乏科学价值的劣质论文。
*请认真填写需求信息,我们会在24小时内与您取得联系。