阿暉
一篇結(jié)構(gòu)完整的學(xué)術(shù)論文也許只需要幾分鐘就可以完成,你相信嗎?
不管你信不信,這已經(jīng)成為現(xiàn)實。由美國人工智能實驗室OpenAI于去年11月發(fā)布的AI工具ChatGPT,以令人目瞪口呆的速度在全球迅速走紅,因為它除了可以回答問題,還讓創(chuàng)作詩歌、編寫代碼、撰寫論文這樣人腦都覺得復(fù)雜的事情變得易如反掌。
隨著其熱度飆升,質(zhì)疑和爭議也隨之而來,尤其是教育和學(xué)術(shù)界,對這種技術(shù)可能引發(fā)的濫用問題憂心忡忡,甚至開始下禁令來構(gòu)筑“防火墻”。
這段日子,ChatGPT風(fēng)靡海外教育圈,莘莘學(xué)子迅速就發(fā)現(xiàn)了這款人工智能工具帶來的好處,用它來完成作業(yè)和論文,可以少死多少腦細胞,可以多睡多少囫圇覺?,F(xiàn)狀可以用一句話來形容就是:學(xué)生用得不亦樂乎,老師們“防不勝防”。
斯坦福大學(xué)校園媒體《斯坦福日報》的一項匿名調(diào)查顯示,大約 17% 的受訪斯坦福學(xué)生(4497名)表示,使用過 ChatGPT 來協(xié)助他們完成秋季作業(yè)和考試。
據(jù)海外媒體報道,由ChatGPT代寫作業(yè),已經(jīng)成為美國大學(xué)的一種現(xiàn)象。在線課程供應(yīng)商Study.com面向全球1000名18歲以上學(xué)生的一項調(diào)查顯示,每10個學(xué)生中就有超過9個知道ChatGPT,超過89%的學(xué)生使用ChatGPT來完成家庭作業(yè),48%的學(xué)生用ChatGPT完成小測驗,53%的學(xué)生用ChatGPT寫論文,22%的學(xué)生用ChatGPT生成論文大綱。
去年 12 月,弗曼大學(xué)哲學(xué)助理教授 Darren Hick 給學(xué)生們布置了一篇 500 字的課后文章。明明是一個沒有難度的作業(yè),他卻發(fā)現(xiàn)居然有學(xué)生用 ChatGPT 來完成。Darren Hick表示,ChatGPT的免費和即時性,及其超強的自然語言處理能力,令很多學(xué)生動了“歪腦筋”,他們會將有關(guān)文字寫作的作業(yè),交由ChatGPT來完成,而一般人幾乎難以分辨真人和機器所寫的文章有何不同。他還表示:“可能在 ChatGPT 之后的升級優(yōu)化中,這些痕跡將更難發(fā)現(xiàn)?!睆姶蟮?AI 生成,讓 Darren Hick 感到極度恐懼。
據(jù)《紐約時報》1 月中旬報道,北密歇根大學(xué)的哲學(xué)教授 Antony Aumann 在為自己任教的一門世界宗教課程評分時,讀到了一篇沒有錯別字和語法錯誤的“最佳論文”,簡潔的段落、恰當?shù)呐e例和嚴謹?shù)恼摀?jù),讓教授倍感意外。不料最后發(fā)現(xiàn),這篇論文是學(xué)生用 ChatGPT 完成的。事實上,美國已經(jīng)有大學(xué)生用ChatGPT寫論文,獲得了第一名。
ChatGPT同樣在某些考試中展示出驚人的能力。2022年12月發(fā)表于醫(yī)學(xué)預(yù)印本資料庫medRxiv上的論文顯示,ChatGPT在一項實驗中已經(jīng)接近通過美國醫(yī)學(xué)執(zhí)照考試(USMLE),而普通的美國醫(yī)學(xué)生需要四年的醫(yī)學(xué)院教育和兩年的臨床輪轉(zhuǎn),才能通過這一考試。
上月,賓夕法尼亞大學(xué)沃頓商學(xué)院教授Christian Terwiesch發(fā)表了一篇名為《聊天工具ChatGPT會獲得沃頓商學(xué)院的MBA嗎?》的文章,介紹在其MBA課程的一節(jié)核心課程的考試中測試ChatGPT,結(jié)果發(fā)現(xiàn)ChatGPT獲得了一個介于在B和B-之間的穩(wěn)定分數(shù),并超過了課程中的大多數(shù)學(xué)生。
多所美國名校的學(xué)生用ChatGPT“捉刀”代替自己寫論文或完成考試,并表現(xiàn)出頂級水平。這意味著,ChatGPT已經(jīng)可以從事初級的乃至更高水平的學(xué)術(shù)研究。
美國期刊《金融研究快報》上此前刊登了一篇有關(guān) ChatGPT 的研究報告。報告顯示它可以獨立撰寫出一篇金融論文,并且論文內(nèi)容能被相關(guān)的學(xué)術(shù)期刊所接受。
果然,除了教學(xué)環(huán)節(jié),學(xué)術(shù)界的科學(xué)文獻中也已出現(xiàn)了ChatGPT的身影,并且竟然以作者身份出現(xiàn)在了學(xué)術(shù)論文中。
比如,2022年12月一篇由香港人工智能藥物研發(fā)公司Insilico Medicine發(fā)表的利用ChatGPT推測雷帕霉素應(yīng)用的文章中,ChatGPT被列為第一作者,引發(fā)業(yè)內(nèi)爭議。前述發(fā)表于醫(yī)學(xué)預(yù)印本資料庫medRxiv上,研究ChatGPT在美國醫(yī)學(xué)執(zhí)照考試中表現(xiàn)的論文中, ChatGPT也被列為作者。
再比如,2022年12月27日,美國西北大學(xué)的 Catherine Gao 等人在預(yù)印本資料庫 bioRxiv 上發(fā)表的研究論文,研究團隊通過使用ChatGPT 編寫出了令人信服的研究論文摘要,原創(chuàng)分值100%,并通過剽竊檢查,甚至人類科學(xué)家都難以分辨真假。
據(jù)權(quán)威學(xué)術(shù)期刊《自然》新聞部報道,截至目前,ChatGPT已經(jīng)作為合著作者,出現(xiàn)在至少四篇已發(fā)表的論文和預(yù)印本中。
用AI寫論文,太容易了。《自然》于去年12月進行的一項調(diào)研顯示,293名受訪的教授老師中,20%已經(jīng)發(fā)覺或目睹學(xué)生在用ChatGPT完成作業(yè)或論文。對于這種現(xiàn)象,一位加拿大作家Stephen Marche痛心疾首地呼吁:大學(xué)的論文已死!
多所美國名校的學(xué)生用ChatGPT“捉刀”代替自己寫論文或完成考試,并表現(xiàn)出頂級水平。這意味著,ChatGPT 已經(jīng)可以從事初級的乃至更高水平的學(xué)術(shù)研究。
同時,許多科學(xué)家開始擔(dān)憂ChatGPT殺入學(xué)術(shù)圈可能帶來的學(xué)術(shù)混亂。雖然將ChatGPT列為作者的論文大多涉及人工智能,甚至內(nèi)容本身就與ChatGPT相關(guān),但還是引發(fā)了學(xué)術(shù)界的擔(dān)憂和爭議。
面對ChatGPT的“興風(fēng)作浪”和由此引發(fā)的學(xué)術(shù)界的擔(dān)憂和爭議?!蹲匀弧贰犊茖W(xué)》這樣的頂級學(xué)術(shù)刊物終于坐不住了,紛紛開始對ChatGPT出臺使用限制措施。
《科學(xué)》近日發(fā)表了一篇標題為《ChatGPT很有趣,但它不是作者》的文章明確指出,禁止在投稿論文中使用ChatGPT生成的文本。因為《科學(xué)》要求投稿論文必須是原創(chuàng)的,所以不能抄襲ChatGPT生成的文本,更不能將ChatGPT列為論文作者。
《科學(xué)》系列期刊的主編Holden Thorp則公開表示,在《科學(xué)》及其子刊中發(fā)表的學(xué)術(shù)文章,不允許將AI列為論文作者。他表示,在沒有適當引用的情況下使用人工智能生成的文本,可能會被視為剽竊。目前,《科學(xué)》系列期刊正在更新相應(yīng)的許可證和編輯政策,明確規(guī)定由ChatGPT(或任何其他人工智能工具)生成的文本不能在作品中使用。
《自然》則在更新的投稿規(guī)則中表示,可以在論文中使用大語言模型生成的文本,其中也包含ChatGPT。但大語言模型只是一種工具,應(yīng)該在論文的方法部分適當介紹,不能將ChatGPT列為作者。
1月3日,國際機器學(xué)習(xí)會議(ICML)發(fā)布2023論文征稿公告,會議要求所有研究者,包括審稿人,禁止使用大型語言模型(LLM)編寫論文,如ChatGPT。
目前,全球范圍內(nèi)的期刊編輯、研究人員和出版商正在爭論這類人工智能工具在出版文獻中的地位,以及將機器人列為論文作者是否合適。學(xué)術(shù)期刊出版商愛思唯爾(Elsevier)相關(guān)人士在接受英國《衛(wèi)報》采訪時表達了和《自然》相似的觀點。
據(jù)《自然》新聞部援引多家出版商和預(yù)印本平臺觀點,由于無法對科學(xué)論文的內(nèi)容和完整性負責(zé),ChatGPT等人工智能不符合論文作者的標準。不過,有一些出版商表示,除了署名的問題外,人工智能對論文寫作其他方面的貢獻可以得到承認。
“在知情同意論文投稿,對論文負責(zé),以及論文修改方面,我認為目前的AI是無法符合的?!痹诿绹苄菀凰⒀芯啃痛髮W(xué)攻讀博士學(xué)位的張森在接受國內(nèi)界面新聞采訪時表示,“這是學(xué)術(shù)共同體數(shù)百年來無數(shù)次博弈之后形成的一套比較固定的規(guī)則。鑒于AI目前還無法在這套規(guī)則下參與研究工作,我覺得比較合適的方法是把AI的貢獻列入論文末尾的聲明部分。”
根據(jù)國際醫(yī)學(xué)雜志編輯委員會(ICMJE)的標準,確定為論文“作者”地位需要同時滿足四個條件,包括對論文的構(gòu)思或設(shè)計有實質(zhì)性工作;或采集、分析或解釋數(shù)據(jù);起草或者深度修改論文重要的知識內(nèi)容;最終版本的確定,并知情同意論文投稿;以及同意對工作內(nèi)容負責(zé),以確保能回復(fù)調(diào)查及解決與研究工作準確性及誠信有關(guān)的問題。
除了學(xué)術(shù)界拿出了限制規(guī)則,教育界也對ChatGPT啟動了“封殺”措施。
美國紐約的教育部門也發(fā)現(xiàn)了ChatGPT可能帶來的某種危害,在1月3日正式頒布了“ChatGPT禁令”,不管是老師還是學(xué)生,都無法在紐約市公立學(xué)校的網(wǎng)絡(luò)和設(shè)備上使用ChatGPT。
針對學(xué)生們屢禁不止的用ChatGPT完成作業(yè)和論文的行為,斯坦福大學(xué)近日打響了對ChatGPT的“反擊戰(zhàn)”。斯坦福研究人員推出了 DetectGPT,旨在成為打擊高等教育中機器生成文本的首批工具之一。DetectGPT同樣是一款A(yù)I工具,可以檢測出基于大型語言模型生成文本的特定傾向,從而可以判斷文本是否是 AI 生成的。
趙星則認為,ChatGPT 技術(shù)帶來的機遇大于挑戰(zhàn),對教育和學(xué)術(shù)界而言,與其恐慌,不如思考:為什么我們會一次次被機器打???
人工智能對抗人工智能是不是一種好辦法?
華東師范大學(xué)元宇宙與數(shù)智人實驗室首席專家、元宇宙與虛實交互聯(lián)合研究院院長趙星告訴新民周刊記者,當前已經(jīng)有一些評估查驗手段來檢測出使用ChatGPT的論文,思路是使用人工智能對抗人工智能。目前市面上已經(jīng)有應(yīng)用,甚至ChatGPT的發(fā)布公司OpenAI也已經(jīng)開始推出AI檢測工具,如OpenAl GPT-2 Detector,其他也包括Text Analysis Toolkit等。人生智能生成內(nèi)容有痕跡可循,進行內(nèi)容檢測技術(shù)上是可行的。
此外,英國大學(xué)表示,它正在密切關(guān)注這一問題,但還沒有積極解決。而澳大利亞高等教育獨立監(jiān)管機構(gòu)TEQSA表示,各個院校需要明確定義自己的評估規(guī)則,并將信息傳達給學(xué)生。
記者詢問了上海的幾家高校,均表示尚未對ChatGPT出臺限制措施,這可能與ChatGPT在中國國內(nèi)的使用條件有關(guān)。不過趙星透露,國內(nèi)也有不少學(xué)術(shù)期刊和學(xué)者在開始討論與研究這一課題。
一系列紛至沓來的“封殺”,在一定程度上證明了ChatGPT的強大。不過教育和學(xué)術(shù)界是否一定要將ChatGPT視為“洪水猛獸”,認為其有百害而無一利,有不少業(yè)內(nèi)專家學(xué)者也發(fā)表了不同看法。
有學(xué)者表示,在知識門檻較高的高等教育行業(yè),也被多場景廣泛應(yīng)用。如果將ChatGPT合理運用在正確場景,也可能提升科研工作者的生產(chǎn)力。
比如快速檢索領(lǐng)域相關(guān)文獻:ChatGPT可以快速檢索某個特定領(lǐng)域的相關(guān)文獻資料,或針對某個話題搜索相關(guān)的研究方向,這在所有論文的文獻綜述、研究者的科研方向探索層面會有一定助益。在閱讀文獻過程中,可能遇到篇幅較長的內(nèi)容,此時也可利用ChatGPT進行要點總結(jié)。此外,基于期刊發(fā)表語言要求,ChatGPT也可以指導(dǎo)寫作,潤色語法,幫助作者減少在論文撰寫中出現(xiàn)語法錯誤,優(yōu)化文字表述。
當然,運用ChatGPT雖然可以快速生成回答,甚至超出預(yù)期響應(yīng)你的需求,但不能保證信息正確,技術(shù)倫理問題也有待商榷,局限性依然存在。
賓夕法尼亞大學(xué)沃頓商學(xué)院教授Terwiesch表示,ChatGPT的用戶體驗和給出的答案讓他感到敬畏。不過,他也指出,ChatGPT在一些相當簡單的情況下犯了重大錯誤,在一道題目的答案中出現(xiàn)十倍的偏差,甚至低于一位中學(xué)生的學(xué)術(shù)能力。
“我們有很多理由相信,隨著時間的推移,技術(shù)正在變得更好。但對于很多復(fù)雜的問題,我們?nèi)匀恍枰祟惖膮⑴c?!盩erwiesch教授認為作為教育者,應(yīng)繼續(xù)堅持教授學(xué)生基礎(chǔ)的知識和技能,這是日后理解復(fù)雜問題的前提。
趙星教授也指出,ChatGPT在解決問題時也存在一定的缺陷,諸如前沿性、創(chuàng)新性、邏輯性等,都還存在顯著的不足。越是核心的知識創(chuàng)造,AI越是無能為力。ChatGPT目前的熱度有新鮮感的因素,真正的學(xué)術(shù)研究和創(chuàng)新,還是需要真正的腳踏實地的科學(xué)探索。
他不認為ChatGPT之類工具能在短期內(nèi)對教育界產(chǎn)生很大的沖擊,“教育的過程不僅僅是知識的交流,還需要在與人的交流中塑造人性。ChatGPT通過大量人工的標注,甚至能做到‘迎合’與‘油膩’,但也無法抹去所有對話者都知道它不是人的事實”。趙星說。
在歷史上,教育和學(xué)術(shù)研究是支撐技術(shù)突破的兩條大腿,但這次產(chǎn)業(yè)界實現(xiàn)ChatGPT技術(shù)突破,卻砸到了教育界和學(xué)術(shù)界的根腳,這就是學(xué)術(shù)界和高教界高度警惕的原因。浙江大學(xué)馬克思主義學(xué)院教授潘恩榮在《中國科學(xué)報》撰文指出,“人與機”關(guān)系重要性提升,未來將上升到和“人與人”關(guān)系同等重要的位置。正是由于這樣的底層邏輯的變化,使得教育界和學(xué)術(shù)界關(guān)于人工智能及其社會影響的認知出現(xiàn)“誤判”而驚慌失措。他表示,人機平權(quán),協(xié)同進化。我們就應(yīng)該承認且正視人工智能的能力。
趙星則認為,ChatGPT技術(shù)帶來的機遇大于挑戰(zhàn),對教育和學(xué)術(shù)界而言,與其恐慌,不如思考:為什么我們會一次次被機器打?。克f:“對抗AI進化,不如人以更快的方式進化。教育沒能夠使得人類很快的進化,這是我們需要反思的問題。”