尷尬了!用ChatGPT寫論文忘刪生成按鈕 出版商:撤稿
尷尬了,物理論文把ChatGPT按鈕也復(fù)制了進去。
結(jié)果不僅通過了兩個月同行評審,甚至最終在雜志上公開發(fā)表。
而發(fā)現(xiàn)這一現(xiàn)象的正是知名打假人法國圖盧茲大學(xué)副教授Guillaume Cabanac,曾入選Nature年度十大人物。
Nature最新報道稱,這并非個例,甚至只是「冰山一角」。
要說在論文里出現(xiàn)「Regenerate response」還算比較隱晦,還有更離譜更明顯的。
比如,直接將「作為人工智能語言模型,我……」復(fù)制進去。
嗯…就是說想用就用吧,但用得有點過于隨意和不認(rèn)真了,寫個論文咋就跟學(xué)生寫作業(yè)似的。
只是冰山一角
幾天前,Physica Scripta雜志發(fā)表了一篇論文,旨在發(fā)現(xiàn)復(fù)雜數(shù)學(xué)方程的新解。
結(jié)果沒想到的是,在論文第三頁出現(xiàn)了類似ChatGPT按鈕上短語「Regenerate Response」。
出版商的同行評審和誠信負(fù)責(zé)人表示,作者后來向期刊證實,他們使用ChatGPT來幫助起草手稿。
而在此之前,論文5月提交、修改版又于7月提交以及后續(xù)的排版均未發(fā)現(xiàn)這樣的異常情況。
目前出版商已經(jīng)決定撤回這一論文,理由是作者提交時沒有聲明他們使用該工具,這一行為違反了他們的道德政策。
事實上,這并非唯一案例。自pubpeer不完全統(tǒng)計,4個月以來就有十幾篇含有「Regenerate Response」或「As an AI language model, I …」的文章。
以「As an AI language model, I …」為例,搜索就有8個結(jié)果,最新一次是在三天前發(fā)現(xiàn)的。
對此這也給同行評審員帶來更嚴(yán)峻的考驗,一來他們通常沒有時間去徹底檢查;二來看門人的數(shù)量跟不上。
不過也有一些特定的方法,比如ChatGPT在內(nèi)的大模型會擅長吐出虛假文獻、
Retraction Watch就曾爆出一篇由AI撰寫的千足蟲預(yù)印本,因為含有虛假引用而被撤回,隨后又被重新上線。
可以用,聲明即可
事實上,這并非意味著研究者們不能用ChatGPT以及其他大模型工具協(xié)助撰寫稿件。
Elsevier和Springer Nature在內(nèi)的許多出版商都表示:
可以用,聲明即可。
此前,就有來自田納西大學(xué)健康科學(xué)中心的放射科醫(yī)生Som Biswas,在4個月內(nèi)使用ChatGPT寫了16篇論文,并在4個不同的期刊上發(fā)表了5篇。
當(dāng)他第一次提交論文時,就跟編輯坦言:你看到的所有內(nèi)容都是AI寫的。
結(jié)果就在幾天后,這篇論文通過同行評審,并在雜志Radiology上發(fā)表。
于是在這之后一發(fā)不可收拾,寫的論文也并不局限于放射學(xué)專業(yè),包括教育、農(nóng)業(yè)、法律等。
于一部分人而言,以ChatGPT為代表的大模型著實提高了他們的生產(chǎn)效率。
對于ChatGPT輔助寫論文,你怎么看待呢?是否已經(jīng)再用它寫論文了?
本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。
如果侵犯了你的權(quán)益請來信告知我們刪除。郵箱:business@qudong.com