新技術輔助學術研究,本身就貫穿人類學術探索進程。伽利略1609年發(fā)明了人類歷史上第一臺天文望遠鏡,借助它觀測天象,坐實了地心說的荒謬。
AI技術的出現(xiàn),使機器像人一樣,會“思考”、會寫作了,挑戰(zhàn)了人類的主體性。新技術輔助論文寫作,隨之出現(xiàn)各種問題。
討論這些問題,首先需要考慮,學術研究的評價依據(jù)是什么?是要精確計量研究者“眉毛上的汗水”,研究者不借助任何工具所顯示的能耐,還是對真理和真相的探索發(fā)現(xiàn)?
要精確計量研究者“眉毛上的汗水”,涉及公平問題。研究成果是人類的智力貢獻,要衡量智力付出的。我的發(fā)際線不斷升高,你卻讓AI的發(fā)際線升高了,這不行。
這一說法,讓我想起多年以前高曉聲的小說《陳奐生出國》。陳奐生們在土地上辛苦刨吃的,總是面對饑餓的威脅,但他出國找同伴,卻發(fā)現(xiàn)國外的農(nóng)民兩口子種了幾千公頃土地,撒種、施肥、收割……什么都靠機器,自己需要干的,居然是洗雞蛋,太不公平!
研究者不借助任何工具所顯示的能耐,則與人的本質(zhì)力量相關,或者說,與人的定義相關。許多人擔心,人類依賴AI,會導致批判性思維、創(chuàng)新意識等人類核心學術能力的退化。未來的研究者不會批判性思考,不會創(chuàng)新,不會寫論文,這場景有點令人恐懼。
我當年學開車時,就遇到這種場景。那時候,已經(jīng)有了自動擋汽車,但師傅要我們一定要熟練掌握手動擋汽車的技能:自動擋,像個玩具一樣,哪還能顯示出好司機的能耐?多年過去了,現(xiàn)在的司機都不行了,普遍都不會開手動擋了,甚至智能駕駛汽車都上路了。不過,我現(xiàn)在沒有勇氣向后輩顯示自己的手動擋駕駛技能,擔心他們笑話我。人們都把用在汽車駕駛上的批判性思考和創(chuàng)新能力改用到新的創(chuàng)造中去了,思維能力和創(chuàng)新能力并沒有退化。
如果學術研究的目的是對真理和真相的探索發(fā)現(xiàn),該討論的就不是論文寫作中是否使用了AI(這一點現(xiàn)在已不是問題),AI使用了多少(這一點現(xiàn)在是大問題),而是如何使用AI。
換句話說,就是AI這一工具有什么長項,能幫我們快速接近真理和真相,又有哪些局限,可能使我們在追求真理和真相的過程中迷航?
與其他相對恒定的、性質(zhì)不會發(fā)生大變化的事物相比,AI這一工具還在不斷迭代。女性主義者常說,女人是不可以定義的。AI也是這樣,不可定義。你剛給它劃定了個內(nèi)涵外延,它已經(jīng)變了。
因此,我們討論AI的長項和局限,就是“活在當下”的。
AI現(xiàn)階段的能耐,是概率擬合,就是說,它是靠大語言模型進行深度學習,輸出的結果可能是共識性最強的,但不是最具有創(chuàng)新性的。熟知非真知,共識也許是需要挑戰(zhàn)的。因此,對于學術研究來說,其創(chuàng)新就打了折扣;大語言模型還受輸入信息的影響,輸入了偏見性信息,就可能產(chǎn)出偏見性信息,所以,數(shù)據(jù)清洗也是必要的;AI幻覺既有利于藝術創(chuàng)作編出一個合情合理的故事,也可能在學術研究中產(chǎn)生欺騙性;信息輸入和結果產(chǎn)出之間的過程的黑箱狀態(tài),導致不透明,不可追溯(這一點現(xiàn)在正在發(fā)生改變)……如此等等,決定了我們現(xiàn)在還不能過于信任AI,必須小心被誤導,畢竟,一篇論文的責任人是作者,AI又不會替你承擔責任。
不過,反過來說,人自身也是有局限的。人并不是AI給出的信息的真理性的裁判者,他只是論文的責任人。人思考問題,在很大程度上也是概率擬合,這個概率與AI相比,樣本還特別??;人的成見或偏見,使我們必須強調(diào)言論交鋒和學術質(zhì)證,論文中要求的研究過程的透明性和可追溯性,正是為了便于他人來質(zhì)證、審查和重復;人產(chǎn)生幻覺的幾率,比AI要大許多,赫拉利在《人類簡史》中直接說,讓人類和動物拉開差距的,恰恰是人類的編故事的能力。
只要便于論文求真,AI就可以大膽使用。對AI這一工具的有效和正當使用,應該成為學術研究的一種能力要求。
那么,本科生、碩士生要寫畢業(yè)論文,能不能借助AI?該如何使用?
本科生、碩士生都處在學術研究訓練階段,本科生甚至可以說處在入門階段,如果借用了AI,會不會使學術訓練的目的落空?要不要用AI打敗AI,開發(fā)各種AI率評估軟件?
如果我們把對AI這一工具的有效和正當使用,作為學術研究的一種能力要求,那么,本科生、碩士生就必須訓練這種能力。所以,借用AI就不成問題,如何使用也是訓練的一環(huán)。
可是,有學生用AI整了一篇論文交差怎么辦?要不要認真查一下AI率?我認為沒必要。
我會專注于論文本身:問題是不是有意義,是不是具有前沿性?數(shù)據(jù)真實與否?引用文獻是否存在?研究方法是否可行?研究過程描述是否達到可重復性?研究是否符合邏輯?是否抄襲?如果學生用AI達到了這些要求,那說明學生已經(jīng)學會了做論文,否則酌情減分,直至不及格。目前,并沒有軟件能夠準確判斷AI率,法律上還講究疑罪從無,憑什么據(jù)此去制造可能的冤案?
荀子說,君子生非異也,善假于物也。會使用工具,是人的一種本質(zhì)力量。
新技術輔助學術研究,本身就貫穿人類學術探索進程。伽利略1609年發(fā)明了人類歷史上第一臺天文望遠鏡,借助它觀測天象,坐實了地心說的荒謬。
AI技術的出現(xiàn),使機器像人一樣,會“思考”、會寫作了,挑戰(zhàn)了人類的主體性。新技術輔助論文寫作,隨之出現(xiàn)各種問題。
討論這些問題,首先需要考慮,學術研究的評價依據(jù)是什么?是要精確計量研究者“眉毛上的汗水”,研究者不借助任何工具所顯示的能耐,還是對真理和真相的探索發(fā)現(xiàn)?
要精確計量研究者“眉毛上的汗水”,涉及公平問題。研究成果是人類的智力貢獻,要衡量智力付出的。我的發(fā)際線不斷升高,你卻讓AI的發(fā)際線升高了,這不行。
這一說法,讓我想起多年以前高曉聲的小說《陳奐生出國》。陳奐生們在土地上辛苦刨吃的,總是面對饑餓的威脅,但他出國找同伴,卻發(fā)現(xiàn)國外的農(nóng)民兩口子種了幾千公頃土地,撒種、施肥、收割……什么都靠機器,自己需要干的,居然是洗雞蛋,太不公平!
研究者不借助任何工具所顯示的能耐,則與人的本質(zhì)力量相關,或者說,與人的定義相關。許多人擔心,人類依賴AI,會導致批判性思維、創(chuàng)新意識等人類核心學術能力的退化。未來的研究者不會批判性思考,不會創(chuàng)新,不會寫論文,這場景有點令人恐懼。
我當年學開車時,就遇到這種場景。那時候,已經(jīng)有了自動擋汽車,但師傅要我們一定要熟練掌握手動擋汽車的技能:自動擋,像個玩具一樣,哪還能顯示出好司機的能耐?多年過去了,現(xiàn)在的司機都不行了,普遍都不會開手動擋了,甚至智能駕駛汽車都上路了。不過,我現(xiàn)在沒有勇氣向后輩顯示自己的手動擋駕駛技能,擔心他們笑話我。人們都把用在汽車駕駛上的批判性思考和創(chuàng)新能力改用到新的創(chuàng)造中去了,思維能力和創(chuàng)新能力并沒有退化。
如果學術研究的目的是對真理和真相的探索發(fā)現(xiàn),該討論的就不是論文寫作中是否使用了AI(這一點現(xiàn)在已不是問題),AI使用了多少(這一點現(xiàn)在是大問題),而是如何使用AI。
換句話說,就是AI這一工具有什么長項,能幫我們快速接近真理和真相,又有哪些局限,可能使我們在追求真理和真相的過程中迷航?
與其他相對恒定的、性質(zhì)不會發(fā)生大變化的事物相比,AI這一工具還在不斷迭代。女性主義者常說,女人是不可以定義的。AI也是這樣,不可定義。你剛給它劃定了個內(nèi)涵外延,它已經(jīng)變了。
因此,我們討論AI的長項和局限,就是“活在當下”的。
AI現(xiàn)階段的能耐,是概率擬合,就是說,它是靠大語言模型進行深度學習,輸出的結果可能是共識性最強的,但不是最具有創(chuàng)新性的。熟知非真知,共識也許是需要挑戰(zhàn)的。因此,對于學術研究來說,其創(chuàng)新就打了折扣;大語言模型還受輸入信息的影響,輸入了偏見性信息,就可能產(chǎn)出偏見性信息,所以,數(shù)據(jù)清洗也是必要的;AI幻覺既有利于藝術創(chuàng)作編出一個合情合理的故事,也可能在學術研究中產(chǎn)生欺騙性;信息輸入和結果產(chǎn)出之間的過程的黑箱狀態(tài),導致不透明,不可追溯(這一點現(xiàn)在正在發(fā)生改變)……如此等等,決定了我們現(xiàn)在還不能過于信任AI,必須小心被誤導,畢竟,一篇論文的責任人是作者,AI又不會替你承擔責任。
不過,反過來說,人自身也是有局限的。人并不是AI給出的信息的真理性的裁判者,他只是論文的責任人。人思考問題,在很大程度上也是概率擬合,這個概率與AI相比,樣本還特別?。蝗说某梢娀蚱?,使我們必須強調(diào)言論交鋒和學術質(zhì)證,論文中要求的研究過程的透明性和可追溯性,正是為了便于他人來質(zhì)證、審查和重復;人產(chǎn)生幻覺的幾率,比AI要大許多,赫拉利在《人類簡史》中直接說,讓人類和動物拉開差距的,恰恰是人類的編故事的能力。
只要便于論文求真,AI就可以大膽使用。對AI這一工具的有效和正當使用,應該成為學術研究的一種能力要求。
那么,本科生、碩士生要寫畢業(yè)論文,能不能借助AI?該如何使用?
本科生、碩士生都處在學術研究訓練階段,本科生甚至可以說處在入門階段,如果借用了AI,會不會使學術訓練的目的落空?要不要用AI打敗AI,開發(fā)各種AI率評估軟件?
如果我們把對AI這一工具的有效和正當使用,作為學術研究的一種能力要求,那么,本科生、碩士生就必須訓練這種能力。所以,借用AI就不成問題,如何使用也是訓練的一環(huán)。
可是,有學生用AI整了一篇論文交差怎么辦?要不要認真查一下AI率?我認為沒必要。
我會專注于論文本身:問題是不是有意義,是不是具有前沿性?數(shù)據(jù)真實與否?引用文獻是否存在?研究方法是否可行?研究過程描述是否達到可重復性?研究是否符合邏輯?是否抄襲?如果學生用AI達到了這些要求,那說明學生已經(jīng)學會了做論文,否則酌情減分,直至不及格。目前,并沒有軟件能夠準確判斷AI率,法律上還講究疑罪從無,憑什么據(jù)此去制造可能的冤案?
荀子說,君子生非異也,善假于物也。會使用工具,是人的一種本質(zhì)力量。
本文鏈接:http://www.enbeike.cn/news-2-2321-0.html與其試圖用AI打敗AI 不如回歸對論文質(zhì)量的關注
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇:總工程師步行2千米送殲-10首飛
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕