AI代寫論文現象如何科學治理
幾分鍾生成一篇論文,傳(chuan) 統查重工具無法識別——
AI代寫(xie) 論文現象如何科學治理
“太不像話了!學生用人工智能生成的期末論文糊弄我。”近日,上海某高校教師在社交媒體(ti) 上“吐槽”自己遇到的新難題——一些想偷懶的學生開始用人工智能技術完成論文。
以ChatGPT為(wei) 代表的生成式人工智能技術(AIGC)橫空出世,似乎為(wei) 人們(men) 寫(xie) 論文提供了新幫手。從(cong) 提供選題到文稿潤色、從(cong) 統計分析到圖表製作……其功能之強大,幾乎覆蓋了學術論文寫(xie) 作過程的方方麵麵。
麵對ChatGPT等工具的潛在風險,爭(zheng) 議隨之而來。不少人質疑,人工智能到底能不能用於(yu) 輔助學術論文寫(xie) 作。有人認為(wei) ,它隻是提高科研效率的工具。有人則對此持審慎態度,認為(wei) 容易引發大規模的學術誠信問題。
人工智能技術在論文寫(xie) 作中的應用程度如何?技術應用的邊界在哪裏?如何對這一技術進行有效治理?科技日報記者對此進行了深入采訪。
AI生成的文本“非常水”
有多少人嚐試過用人工智能技術寫(xie) 論文?去年《自然》雜誌對全球博士後的一項調查發現,約有三分之一的受訪者使用人工智能聊天機器人來優(you) 化文本、生成或編輯代碼、整理文獻。
當記者嚐試在社交媒體(ti) 上搜索“AI”“論文”“寫(xie) 作”等關(guan) 鍵詞,五花八門的AI論文寫(xie) 作指導教程映入眼簾。其中大部分宣稱能夠教會(hui) 用戶在幾分鍾內(nei) 通過幾個(ge) 簡單的步驟,生成一篇幾萬(wan) 字的“優(you) 質”論文。這些教程的瀏覽量最高已達數百萬(wan) 。
AI真的能生成一篇完整的“優(you) 質”論文嗎?記者按照教程開始了嚐試:“請提出與(yu) 民族誌紀錄片有關(guan) 的論文選題。”幾乎無需等待,幾個(ge) 看起來很“靠譜”的選題就出現在對話框裏。
“請就某一選題生成寫(xie) 作大綱。”幾秒後,7個(ge) 像模像樣的章節全部生成完畢。“請就提綱中某項內(nei) 容,詳細描述2000字。”重複幾次操作後,一篇幾萬(wan) 字的“論文”很快就完成了。但記者瀏覽後發現,其生成的段落中,存在大部分重複且言之無物的內(nei) 容。
除了說“車軲轆”話,某985高校人工智能專(zhuan) 業(ye) 碩士研究生溫睿還發現了此類論文的行文特點:“一般是先寫(xie) 一句話,然後進行分條論述。當老師看到這樣套路化的內(nei) 容就會(hui) 猜測,這類文章很大程度上是人工智能寫(xie) 的。”
文章開頭那位教師的經曆印證了溫睿的發現。“這樣的論文看似條理清晰、層次豐(feng) 富,但實際上每個(ge) 層麵的內(nei) 容都很少,而且非常空洞。我馬上就懷疑是AI生成的。”該老師說。
不少期刊編輯、審稿人也發現了同樣的問題。
某人文社科期刊審稿人徐彬向記者透露,用AI寫(xie) 論文的關(guan) 鍵在於(yu) 提示詞。如果提示詞選用的不恰當,就極有可能得到一篇套路化的文章。他目前已經收到過五六篇“一眼就能看出來”用AI寫(xie) 的稿子。
“這些文章的共同特點就是非常水。雖然它生成的語言連貫性不錯,但是缺乏深度,創新性也不強。”對此,徐彬略顯無奈,“綜述類文章是使用AI的重災區,但目前期刊還缺乏相關(guan) 的評價(jia) 標準和處理機製。”
偽(wei) 造數據集更具隱蔽性
在清華大學人工智能國際治理研究院副院長梁正看來,論文核心評價(jia) 標準包括作者發揮的創造性、對論文的貢獻程度。一篇大部分由AI生成且隱瞞使用情況的文章,既沒有作者智力的貢獻,也不符合科研誠信的要求,屬於(yu) 學術造假。
AIGC造成的學術造假還發生在數據領域。記者在采訪過程中,多位業(ye) 內(nei) 專(zhuan) 家提到了偽(wei) 造數據集問題。相比直接的文本生成,這一方式更具有隱蔽性。
GPT-4的ADA功能是一種結合了計算機編程語言Python的模型,可以執行統計分析和創建數據可視化。梁正向記者講述了一則真實的案例:國外某機構研究人員先是要求GPT-4 ADA創建一個(ge) 關(guan) 於(yu) 圓錐角膜患者的數據集,後又要求它編造臨(lin) 床數據,用以支持深板層角膜移植術比穿透性角膜移植術效果更好的結論。但真實的臨(lin) 床數據證明,兩(liang) 種手術效果並無明顯差別。
“針對某個(ge) 問題,提出方法來解決(jue) ,並通過實驗來證明方法的可行性——這是專(zhuan) 業(ye) 論文的常用模式。人工智能不能做實驗,哪怕它給的實驗數據再理想,也都是虛假的。”溫睿認為(wei) ,虛假的數據背離了科學研究的真正意義(yi) 。
除了數據處理,更多人使用AIGC來解釋概念。溫睿發現AIGC生成的概念簡潔明了,查重率也非常低。但當記者詢問這些概念是否正確時,溫睿顯得有些遲疑:“我也沒有把握,通常默認它是對的。”
為(wei) 了驗證AIGC給出答案的準確性,記者就一些新興(xing) 概念提問,但它給出的答案往往和真正概念毫不沾邊。當記者讓AI生成5篇某領域的重點參考文獻,它又胡編亂(luan) 造了5個(ge) 不存在的作者和不存在的文獻。
在人工智能領域,描述AI“一本正經地胡說八道”的專(zhuan) 業(ye) 名詞是“AI幻覺”。哈爾濱工業(ye) 大學(深圳)特聘校長助理、教授張民解釋,AI幻覺是指AI會(hui) 生成貌似合理連貫,但與(yu) 輸入問題意圖不一致、與(yu) 現實或已知數據不符合或無法驗證的內(nei) 容。這多是由於(yu) AI對知識的記憶不足、理解能力不夠、訓練方式固有的弊端及模型本身技術的局限性所導致。
“如果不警惕AI幻覺,很有可能損害科學研究的真實性和客觀性。”梁正表示,AI生成的錯誤信息一旦被廣泛傳(chuan) 播,不僅(jin) 會(hui) 造成“學術垃圾”泛濫,還將影響學術生態的良性發展。
一場你追我逃的“貓鼠遊戲”
一項新技術的出現,對於(yu) 社會(hui) 的發展往往是把雙刃劍。雖然人工智能技術存在種種隱患,但其在圖文創作、數據處理等方麵的強大能力已被大多數人認可。“歸根結底,我們(men) 認為(wei) AI將增加人類的智慧,而非取代人類。其使用應在人類監督之下,並將道德因素考慮在內(nei) 。”施普林格·自然集團發言人說。
推動AI向善發展,需要借助行之有效的技術手段。值得注意的是,AI生成的論文並不能被查重工具檢測出來。因此,國內(nei) 外都在探索研發專(zhuan) 門針對AIGC的檢測工具。
從(cong) 原理看,AIGC檢測技術是在“用AI打敗AI”。同方知網數字出版技術股份有限公司副總經理柯春曉介紹:“人類的創作往往是隨機且富有靈感的,而接受過大量文本訓練的AI已經形成了生產(chan) 文本的‘固有’範式,傾(qing) 向於(yu) 使用‘一致’的結構和規則,因此具有更高的可預測性。”AIGC檢測的核心就是依托海量的文本和數據樣本,識別出人類和AIGC工具在平均句子長度、詞匯多樣性和文本長度等方麵的不同點,從(cong) 而揪出AI論文“槍手”。
一些期刊出版機構通過檢測工具發現了AIGC代寫(xie) 論文的痕跡。“從(cong) 去年7月底到現在,我們(men) 發現涉嫌AI寫(xie) 作的論文數據每個(ge) 月都在上升,大約有六七十篇的文章疑似使用AI的程度超過了50%。”《中華醫學雜誌》社有限責任公司新媒體(ti) 部主任沈錫賓介紹。
沈錫賓向記者展示了檢測過程:一篇論文經過檢測係統後,會(hui) 顯示疑似AI生成占全文比重,相關(guan) 疑似段落也會(hui) 被標紅。但記者注意到,和傳(chuan) 統的查重報告單明確標注重複痕跡不同,AIGC檢測報告單隻是指出某些文本AIGC的“置信度”,並不能回答為(wei) 什麽(me) 是這個(ge) 值。
“這使得報告單往往隻起到參考和警示作用。”柯春曉說。
目前,人工智能大模型正在以“周”為(wei) 單位進行迭代升級。如何適應不斷升級的技術,是擺在AIGC檢測工具麵前的一道必答題。
作為(wei) 使用者的人類本身也在不斷“進化”。“類似人們(men) 逃避查重的方式,如果人們(men) 了解到AI檢測的方式,也可以重新組織相關(guan) 內(nei) 容,對AI生成的文本進行人工潤色。這樣很可能就檢測不出來了。”沈錫賓說。
作弊與(yu) 反作弊的過程,實質上是場“貓鼠遊戲”。隻要技術不斷升級,兩(liang) 者間的博弈就不會(hui) 停止。目前,AIGC檢測技術仍處在萌芽期。如何對AI生成的虛假圖片、虛假數據進行識別仍是難點。因此,人們(men) 引入智能檢測技術的同時,也要建立人工審查機製。
“審稿人要當好‘守門人’,發揮同行評議的作用,仔細甄別判斷論文的數據是否和認知存在偏差。出版機構也可以要求作者提供原始數據,多管齊下,確保科研誠信。”沈錫賓說。
技術向善要他律更要自律
加強技術治理的同時,各方都在翹首以盼,期待達成某些共識以及相關(guan) 政策盡快出台。“教育、科研、出版各方都很關(guan) 注AIGC使用的邊界,期待對合理使用AIGC形成一個(ge) 共識性規範。”知網技術專(zhuan) 家呼籲。
其實,早在去年初,中國科學技術信息研究所(以下簡稱中信所)就牽頭愛思唯爾、施普林格·自然、約翰威立等國際知名出版集團和科研信息分析機構,在廣泛調研並梳理業(ye) 內(nei) 相關(guan) 研究和探索工作的基礎上,完成了中英文版的《學術出版中AIGC使用邊界指南》(以下簡稱《指南》),並於(yu) 去年9月20日在國內(nei) 外同步發布。
去年12月21日,科技部發布的《負責任研究行為(wei) 規範指引(2023)》(以下簡稱《指引》)更是受到了業(ye) 內(nei) 的廣泛關(guan) 注。
《指引》和《指南》就如何負責任地使用AIGC,解答了令科研工作者、期刊編輯、審稿人困惑的一些問題。
首先是披露問題。《指引》提出,使用生成式人工智能生成的內(nei) 容應明確標注並說明其生成過程,確保真實準確和尊重他人知識產(chan) 權。《指南》中更是提供了聲明的模板,供科研人員參考。
對於(yu) 一些人想用AIGC投機取巧的行為(wei) ,《指引》明確提出,不得使用AIGC直接生成申報材料;《指南》規定,AIGC不應該用來產(chan) 生研究假設、直接撰寫(xie) 整篇論文文本、解釋數據、得出研究結論。研究人員使用的數據必須是研究人員進行實驗並收集所得,如使用AIGC提供的統計分析結果需進行驗證。
隨著AIGC的使用邊界不斷清晰,越來越多的出版機構達成共識,製定了使用規範。施普林格·自然集團發言人介紹說,他們(men) 目前已經明確了有關(guan) 作者身份和圖像方麵的規定。例如,人工智能不能擔任作者,真正作者如使用大語言模型須加以透明描述,AI生成的圖像通常不能用於(yu) 發表等。
“《科學》雜誌在去年1月份發布的政策是禁止使用任何AIGC工具。而11月16日他們(men) 更新了投稿規則、放寬了限製,表示隻要進行了適當披露,使用工具是可以接受的。”中信所博士鄭雯雯說道。
“《指引》覆蓋較為(wei) 全麵,對AIGC的使用總體(ti) 呈現出平衡包容、敏捷治理的態度,而非一味禁止。這也說明治理的目的並不是阻止科研工作者使用新一代人工智能技術,而是讓科研工作者能夠負責任地去使用。”梁正提到,在政策製定的行為(wei) 框架之下,還要關(guan) 注學科差異問題。“使用AIGC可能因學科的不同而有所差異,其倫(lun) 理問題也要根據學科特點細化。”
例如,在自然科學領域;AIGC的強大功能更多體(ti) 現在數據處理領域,如果失範使用,往往難以發現。而對於(yu) 人文社科領域,直接使用AIGC生成內(nei) 容的痕跡非常容易被發現,尤其是在高水平的研究當中,優(you) 劣之分更為(wei) 明顯。
“因此,對於(yu) 更加注重文字表達、數據資料支持的學科,比如企業(ye) 管理、理工科、醫學等,需要防範產(chan) 生虛假的數據集或論證材料。”梁正說,“對AIGC使用的披露程度、疑似度的數據指標等,都需要學術共同體(ti) 進一步探索,來推動形成廣泛共識。”
此外,盡管國家出台了相應的規則,但從(cong) 外部監督到行業(ye) 自治還需要一個(ge) 過程。AIGC的使用涉及包含研究人員、出版機構、相關(guan) 行業(ye) 組織、政府等方方麵麵。如何厘清各方關(guan) 係,各司其職是關(guan) 鍵。“簡單說,就是出了問題,誰來查?有沒有能力查?”鄭雯雯強調。
記者了解到,中華醫學會(hui) 雜誌社在今年1月9日公布了其對於(yu) AIGC技術使用的有關(guan) 規定。其中不僅(jin) 涉及了作者要遵守的細則,還提出了查處方式——經編輯部研判的違反AIGC使用的情形,將直接退稿或撤稿;情節嚴(yan) 重者,將列入作者學術失信名單。
“我們(men) 下一步的目標是把存在問題的文章作一個(ge) 歸納總結,進一步摸清AIGC使用的規律,為(wei) 科學治理積累經驗。”沈錫賓說。
“盡管新興(xing) 技術有著潛在風險,但也有著無可比擬的優(you) 勢,不宜一味封堵,而是要做好引導、合理合規地使用新技術。”鄭雯雯表示,歸根到底,科學研究的主體(ti) 是人。如果心中的那杆“秤”傾(qing) 斜了,即使再完善的監管政策、再高端的檢測技術,也難以抵擋學術不端的侵襲。
梁正也強調,作為(wei) 科研誠信的第一責任人,科研人員一定要保持嚴(yan) 謹的學術態度,關(guan) 注研究領域的真問題,堅守學術研究的基本原則,如原創性和透明性;明確認識到ChatGPT等工具的潛在風險,避免使用不當而造成學術不端。
“科研誠信和倫(lun) 理是科研的生命線,科研人員一定要存敬畏、有底線。一旦在這方麵有瑕疵,職業(ye) 生涯或將葬送。”梁正提醒。
【深瞳工作室出品】
采 寫(xie) :實習(xi) 記者 吳葉凡
本報記者 付麗(li) 麗(li)
策 劃:劉恕 李坤
(文中溫睿、徐彬均為(wei) 化名)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。