以ChatGPT為代表的生成式人工智能技術,依靠其強大的文本生成能力,早已經(jīng)無可避免地滲入到了寫作領域。當人們還在驚嘆于AI文章的流暢結(jié)構(gòu)、精準表達之時,有一部分人已熟練地把ChatGPT當作撰寫學術論文的工具。
日前,江蘇省科技廳監(jiān)督評估處處長顧俊在做客江蘇廣電總臺新聞頻道《政風熱線》時回應稱,將組織開展科技人員公開發(fā)表論文的自查和抽查,并開展科技倫理審查,引導科技人員提高誠信意識。
那么,ChatGPT等生成式人工智能技術究竟能否用于學術論文寫作?如何防范AI技術濫用帶來的學術不端現(xiàn)象?科技日報記者采訪了相關主管部門工作人員和業(yè)內(nèi)學者。
產(chǎn)生的學術不端風險不容忽視
不能否認,ChatGPT能生成連貫的、有邏輯性的文章,并給人們的工作和生活帶來了便利。但是,由此產(chǎn)生的學術不端風險不容忽視。國外已有研究人員發(fā)現(xiàn),ChatGPT所給的回答都是基于它模型訓練的海量數(shù)據(jù),有時可能會限制人們的思維,甚至有些回答并不準確,比如只選擇有利于自己觀點的數(shù)據(jù)進行佐證,忽視其他數(shù)據(jù)。
12月1日,《科技倫理審查辦法(試行)》正式實施,記者查詢后并未在其中找到與生成式人工智能技術相關的條款。目前,國內(nèi)相關部門和科研組織對ChatGPT寫論文的規(guī)定還未明確細化,但是不論以何種方式,只要出現(xiàn)抄襲、剽竊、造假等學術不端行為,都是嚴查重罰的對象。
11月24日,國家自然科學基金委員會公布了2023年第二批不端行為案件的調(diào)查處理結(jié)果,數(shù)量最多的不端行為是抄襲、剽竊、偽造各種信息,總數(shù)達15人,占比62.5%。記者了解到,國內(nèi)已有省份對科研論文進行有針對性的抽查,重點檢查抄襲、造假和重復發(fā)表等學術不端現(xiàn)象,雖然沒有專門針對ChatGPT,但是這些問題都有可能與之相關。
江蘇省科技廳監(jiān)督評估處相關負責人說,將進一步加強科技倫理審查。同時,要求各單位對所發(fā)表的學術論文進行學術不端問題自查和清理,科技部門不定期組織開展主動抽查工作,不斷更新學術不端治理程序和標準。
該負責人表示,防范AI技術濫用帶來的學術不端,將是科技管理部門今后重點監(jiān)管內(nèi)容之一。目前,國內(nèi)已有科研單位在開發(fā)相應軟件,用于AI寫論文的查重工作,今后想利用ChatGPT寫論文獲得榮譽獎勵和科研項目將越來越難。
如何面對避無可避的AI技術
南京理工大學教授李千目,長期從事人工智能系統(tǒng)安全、大數(shù)據(jù)挖掘研究。在他看來,當人們在談論AI技術所產(chǎn)生的負面影響時,更應當看到它們所帶來的便捷與進步。
“AI技術是科研輔助工具之一,它讓我們對某個問題調(diào)研更便捷、分析更明確、研判更精細,資料收集和信息反饋更全面和完整,如果我們合理地運用這個工具,對科研成果(包括但不限于論文)的整體提升會有較大作用?!崩钋拷忉屨f。
那么,在實踐中AI技術到底該如何更好地為科研工作服務,而不是成為抄襲造假的工具?
李千目表示,首先要有制度規(guī)范,并約束AI技術的使用,比如12月1日起實施的《科技倫理審查辦法(試行)》,它規(guī)定了科技工作者及其共同體應恪守的價值觀念、社會責任和行為規(guī)范。希望對這些制度、標準進行廣泛地宣貫,讓更多的科研人員去了解、遵循。
其次是提升社會各界對AI技術的認知。李千目認為,在人類社會和科學發(fā)展每個階段,抄襲幾乎無法完全避免,利用AI技術進行抄襲、剽竊并謀取某些利益,必須嚴厲打擊。但是,提升人們對AI技術的認知并推廣使用,有助于推動社會進步和技術發(fā)展。
“比如利用AI廣泛地采集信息,讓我們的論點和思路更加可行、更加有效,這件事情本身不是壞事?!崩钋空f,面對海量數(shù)據(jù),他們很難全面有效地收集所需信息,而AI工具可以更高效地完成這項工作。
但出于各種原因,很多將AI用于科研論文的作者并不樂于披露這個事實?!拔覉猿终J為,在論文寫作和數(shù)據(jù)收集中使用到AI技術,必須在參考文獻里進行標注。”李千目說。
不難看出,AI在當下科研工作中已扮演重要角色。更重要的是,人們似乎也別無選擇——面對AI,不必回避,也避無可避。
目前,國外已有高校宣布解除ChatGPT使用禁令,并推出了詳細的使用原則。因此,多位科研工作者向記者表示,對AI技術在科研工作中的使用不應一刀切地反對,也不能對AI帶來的學術不端行為放任不管。(張 曄)
(責任編輯:蔡文斌)