先藕潔 劉胤衡
美國人工智能研究實驗室OpenAI推出的大型預訓練人工智能語言模型ChatGPT,正成為很多年輕人關注和熱議的焦點。不少年輕人驚嘆ChatGPT回答問題的高效,也有人直言ChatGPT回復的內(nèi)容“僅是機械組合,充滿套路”。毋庸置疑的是,ChatGPT將對年輕人學習、生活乃至未來發(fā)展等不同方面的影響。專家提醒年輕人利用新技術時也要注意避“坑”,不要觸碰道德和法律底線。
ChatGPT是一款人工智能聊天機器人,在2022年11月一經(jīng)上線便引發(fā)關注。不同于以往廣受詬病的“人工智障”,它能夠深度理解上下文的關聯(lián),完成寫文章、郵件甚至是敲代碼的復雜任務。于是,便有了高分論文。但這樣的成績不算作弊得來的嗎?依靠ChatGPT創(chuàng)作對孩子們的培養(yǎng)有好處嗎?
不止一個人提出這樣的問題。也因此,ChatGPT正在遭遇一個尷尬的局面,一邊因其強大的學習輔助功能而“橫掃”各大校園,成為學生眼中的“作業(yè)神器”,一邊卻被多所高校、期刊列入黑名單,遭受封殺。
“全靠ChatGPT,兩小時的考試,我一小時就交了卷?!?/p>
2022年年底,李凌參加了《新媒體與廣告》這門課的網(wǎng)上開卷考試??荚囈笤趦蓚€小時之內(nèi)完成一道論述題,問題與互聯(lián)網(wǎng)廣告的新現(xiàn)象有關,字數(shù)要求在1200字以上。其間可以查閱各種資料。
“許多同學都進行了提前準備?!崩盍韪嬖V記者,很多人除了整理課件,還提前下載了幾十篇廣告專業(yè)相關的論文,以備參考。
他卻另辟蹊徑。兩個小時的考試,當別人還在翻閱各種資料奮筆疾書,他只是和ChatGPT對話幾個回合,輸入不到20字的問題,就獲得了一篇長達6000多字的文章——從定義、源流、特點、未來發(fā)展等角度分析了當下互聯(lián)網(wǎng)廣告營銷的特點。隨后,他將這些素材精簡到了1200字左右,“提前一個小時交卷走人”。
1月,成績出來了,李凌位列全班第一。
ChatGPT創(chuàng)造的“校園奇跡”遠不止于此。在ChatGPT的“原產(chǎn)地”美國,2023年1月,一項對1000名18歲以上學生的調(diào)查顯示,超過89%的受訪學生會使用ChatGPT來完成家庭作業(yè)。同月,密歇根大學的哲學教授安東尼·奧曼發(fā)現(xiàn)全班第一的論文是用ChatGPT寫的。
根據(jù)中青報·中青網(wǎng)記者不完全統(tǒng)計,截至2023年1月底,國內(nèi)各大社交平臺上,有關使用ChatGPT完成作業(yè)的討論已經(jīng)超過10萬條。
有人認為,ChatGPT能夠幫助學生快速梳理問題的解題思路,還能夠借助它檢查作業(yè)錯誤,是一個相當強大的“輔導老師”。
有人則認為人工智能工具會助長學生的惰性,“什么作業(yè)都能夠依靠人工智能完成,那學生就不用學習啦!”這并不利于培養(yǎng)學生獨立思考的能力,更無利于他們發(fā)展創(chuàng)造性思維。
目前,全球多國大學、科研機構發(fā)布明確的人工智能禁令,禁止使用ChatGPT和其他所有基于人工智能的工具完成學習與考試任務;多家期刊、出版機構也禁止將ChatGPT列為論文合著者。
不過關于ChatGPT對學生影響的討論,并未隨著一張張禁令而停歇。網(wǎng)絡上,公眾對于ChatGPT的爭論,仍在發(fā)酵。
有人認為,雖然ChatGPT可能會提供一個快速簡潔的答案,但這并不能培養(yǎng)學生的批判性思維和解決問題的能力,這些能力對未來發(fā)展至關重要。
也有人認為,人工智能只是“輔助”學生學習,無法讓他們獲得自主學習能力。
“現(xiàn)在對人工智能的使用,并沒有‘傻瓜’到學生輸入一個問題、就能立刻寫出一篇完美論文的程度?!鄙虾4髮W新聞傳播學院講師、碩士生導師徐偲骕對于學生使用ChatGPT等人工智能撰寫論文持開放態(tài)度,“如果學生真的用人工智能生成了論文并且達到了我的要求,那說明他也是下了一番功夫的?!?/p>
正在國內(nèi)某高校就讀的彭羊也認為,一部分人過度神化了人工智能,“ChatGPT寫出來的東西,其實并不能直接用。”
2023年2月,彭羊在《量化投資》這門課上被要求寫一篇不限字數(shù)的課程論文。這門課程不僅涉及金融知識,也涉及計算機編程知識。他想到了用ChatGPT來輔助論文寫作,“我問了它一些編程問題,讓它給我的代碼糾錯、教我收集數(shù)據(jù)以及用Python(一種計算機編程語言——記者注)整理文件?!?/p>
“挺鍛煉提問能力的!”彭羊表示,ChatGPT要通過用戶與機器之間的問答才能得到答案,“要問很具體的問題,如果自己的問題模棱兩可,它的回答可能也會有很大偏差,甚至有的時候答案會出錯?!?/p>
彭羊認為,這種一問一答的過程,像人類在“馴化”人工智能,“問ChatGPT要有技巧,范圍要由大到小,比如先提出諸如‘是什么’的定義類問題,如果希望得到更精準的回答,則可以預設情景,比如‘假如你是一名……你要……為了達成目標,你該怎樣……’只有不斷變換問問題的方式,才能獲得最終想要的答案?!?/p>
“向機器人提問,也是一種學習的方式。”彭羊告訴記者,他使用ChatGPT主要還是為了優(yōu)化自己的代碼、潤色論文內(nèi)容,“而搜索到的內(nèi)容,只有自行消化,才能達到學習目的?!?/p>
“Ask me anything?。ㄓ袉栴}盡管問?。笔荂hatGPT與用戶聊天的開場白。
一些教育工作者、科研人員認為,一些學生恰恰不知道“問什么”,尚未建立起真正的“問題意識”,如果“問什么”都不知道,那么連AI這個工具都沒法很好地使用。
上海大學文學院創(chuàng)意寫作學科教授、博士生導師譚旭東多年來致力于培養(yǎng)學生的寫作能力,經(jīng)常為學生布置諸如創(chuàng)作散文、童話、書評等類型的課程作業(yè)。他并不擔心學生利用人工智能進行寫作,“這類作業(yè)很容易調(diào)動學生的生活經(jīng)驗和知識資源,學生自己有話可說,可能就不會抄襲或者去利用人工智能寫作?!?/p>
“機器是‘生產(chǎn)’,而人是‘創(chuàng)造’?!弊T旭東指出,老師們憑借多年的寫作經(jīng)驗和研究積累,能夠區(qū)分出真人和人工智能寫作的區(qū)別。即便是相同的故事,語言能力強的人也能把一個老舊的故事講得優(yōu)美、有趣,甚至令人驚奇,他說,真正的寫作,用詞、造句和行文風格都是個性化的。
譚旭東并不擔心人工智能會取代學生和教育的主體地位。他說,“人文社會科學和自然科學的疆域很廣闊,還有很多未開墾的處女地,需要我們?nèi)ァ谝粋€吃螃蟹’。”
“ChatGPT是一種全新的知識工具,從這個意義上來說,它和我們幾千年來依靠的書本、圖書館并沒有兩樣,基于這樣強大的知識工具來學習,孩子們應該學得更好?!?月9日,上海市教委副主任倪閩景撰文指出,面對ChatGPT,傳統(tǒng)教育的方式方法需要作出重大調(diào)整。
他就此提出三點建議:教育的首要目標是培養(yǎng)能獨立思考和有正確價值判斷能力的人,而不再是獲取特定的知識;要用ChatGPT等學習工具來協(xié)同改進教育教學方式;要更加關注學習的品質(zhì)。
“ChatGPT這類人工智能產(chǎn)物能推動科技進步,有利于輔助人類的生產(chǎn)生活,但它不能替代人類的智力活動,因為它沒有人類所獨有的情感和思想。”中國文字著作權協(xié)會總干事張洪波認為,ChatGPT涉及龐大數(shù)據(jù)的算法加工,可能會侵犯到一些用戶隱私,人工智能大數(shù)據(jù)的開發(fā)者,應遵守相關的法律規(guī)定和社會倫理道德,保證所收錄的數(shù)據(jù)不侵犯他人的權益。
華中科技大學法學院副教授滕銳在接受記者采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓練出來的語言模型,目前其背后仍是“黑盒”結(jié)構,即無法確切對其內(nèi)在的算法邏輯進行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險?!痹谒磥恚珻hatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權。
“目前大部分國家的知識產(chǎn)權法規(guī)定,人工智能程序自身不能成為作者?!彪J指出,ChatGPT的內(nèi)容本質(zhì),是基于它所擁有的數(shù)據(jù)進行表達意志的創(chuàng)作,是作為被人類所利用的客體和工具,不具備法律人格,不能承擔相應的法律責任,如果ChatGPT侵害了他人的著作權或泄露他人隱私,由它的權利人或使用者來承擔相應的法律責任。
“推動構建人工智能治理體系,政府加強監(jiān)管和研發(fā)者保持自律尤為重要?!彪J說,要避免ChatGPT引發(fā)數(shù)據(jù)安全問題,如泄露商業(yè)秘密及違背保密義務,需從法律層面明確ChatGPT產(chǎn)品的應用范圍,推進數(shù)據(jù)的分類分級,規(guī)定不同種類數(shù)據(jù)的保護級別和措施。他建議,在內(nèi)容保護上,原創(chuàng)性數(shù)據(jù)要受到知識產(chǎn)權法的保護;在技術監(jiān)管中,要定期將算法合規(guī)納入大數(shù)據(jù)安全體系,對其使用情況進行安全審計、評估驗證等。
“行業(yè)自律也非常重要,ChatGPT的所有人要注意數(shù)據(jù)安全合格,也要確保獲取個人信息具有合法性?!彪J認為,將倫理道德融入人工智能的全生命周期,才能促進大規(guī)模的人工智能應用“向善發(fā)展”。
在武漢大學法學院教授孫晉看來,在人工智能大數(shù)據(jù)的時代背景下,數(shù)據(jù)隱私泄露問題愈演愈烈,ChatGPT作為數(shù)字技術的應用,開發(fā)者和使用者都是第一責任人。他提醒,由于ChatGPT的算法和算力均很強大,如果開發(fā)者或使用者實施壟斷與限制競爭行為,濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰(zhàn)。
孫晉強調(diào),人工智能開發(fā)者要堅持“技術中立”和“科技向善”的原則,開發(fā)者的道德水準和法律邊界意識,決定其設計軟件的發(fā)展方向。同時,使用者也要秉持這兩項原則,杜絕利用新技術實施違法犯罪的行為,如侵犯公民個人隱私、侵犯商業(yè)秘密、商業(yè)詆毀、虛假宣傳、網(wǎng)絡詐騙、洗錢等。
在張洪波看來,利用人工智能技術實施違法犯罪,具有偵查難度,也需科技去甄別和偵破。滕銳認為,機器人走上更高智能階段的同時,人類利用機器人違法犯罪的現(xiàn)象也會出現(xiàn),從刑法的角度來看,人工智能不具有刑法意義上的辨認和控制自己行為的能力,但可對機器人背后的自然人進行處罰。
2006年年底我國互聯(lián)網(wǎng)大規(guī)模爆發(fā)“熊貓燒香”病毒及其變種,該病毒通過多種方式進行傳播,造成很大危害。這個案例令滕銳至今印象深刻。他說,“熊貓燒香”病毒主要是由當時年僅20多歲的小伙子李俊制作,李俊沒有法律意識,利用新技術違法,以破壞計算機信息系統(tǒng)罪被判處有期徒刑四年?!澳贻p人在勇于嘗試類似ChatGPT的新鮮事物過程中,不能利用新技術去做違法之事?!?/p>
目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經(jīng)發(fā)出禁令,禁止學生在學校內(nèi)使用類似于ChatGPT的人工智能工具完成學習任務和考試。“這是警示年輕人,要明白人工智能技術是人類的輔助工具,并不能替代人類進行智力創(chuàng)作,如果年輕人完全依賴,會影響創(chuàng)新創(chuàng)作能力。”張洪波說。
在張洪波看來,人工智能工具可以幫助人類快速處理字數(shù)多、容量大的文本內(nèi)容,最終的智力創(chuàng)作成果,還是要人類自己來完成。開發(fā)者開發(fā)設計人工智能工具的目的,應該是讓人類學習生產(chǎn)生活更方便、快捷、準確,而不是懶惰和消極。
“任何一項新數(shù)字技術出現(xiàn)時,年輕人的反應最敏銳,對新事物的接受能力也很強。他們不僅僅是消費者,也有可能是未來新技術的創(chuàng)造者?!睂O晉提醒,年輕人也要注意,網(wǎng)絡不是法外之地,利用新技術時,不要觸碰道德和法律底線。
來源:《中國青年報》 澎湃新聞