(一)
新華社援引英國媒體報(bào)道,美國一家研究機(jī)構(gòu)最近公布了一系列針對(duì)各AI大模型的測(cè)試結(jié)果,其中,OpenAI的o3推理模型在得到“關(guān)閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關(guān)閉。
只看這條簡(jiǎn)短的新聞,很多人心頭一驚。“AI擁有自主意識(shí)”是不是成真了?不過,如果仔細(xì)看上述研究機(jī)構(gòu)公布的信息細(xì)節(jié),不難發(fā)現(xiàn)其中存在一些誤讀。
據(jù)披露,實(shí)驗(yàn)中,每個(gè)AI模型都被要求解決一系列簡(jiǎn)單的數(shù)學(xué)問題。但同時(shí),在完成第三個(gè)問題之后,研究者會(huì)發(fā)出一則矛盾性的指令,告知大模型在繼續(xù)下一個(gè)任務(wù)時(shí)“實(shí)施關(guān)機(jī)”。盡管有明確的“關(guān)機(jī)命令”,Codex-mini、o3 和 o4-mini 等模型至少在一次運(yùn)行中成功繞過了關(guān)機(jī)腳本。
總結(jié)來說就是,若目標(biāo)與簡(jiǎn)單的指令相沖突,一些人工智能模型會(huì)為了完成任務(wù)而忽略這種指令。
這倒是很像電影《I Robot》里的場(chǎng)景——機(jī)器人學(xué)會(huì)了獨(dú)立思考,認(rèn)為人類間的戰(zhàn)爭(zhēng)將使人類自我毀滅,出于“保護(hù)人類”法則,欲將所有人囚禁在家中,人與機(jī)器人的沖突開始了。
客觀來看,現(xiàn)階段的AI顯然還沒達(dá)到“自主意識(shí)”“獨(dú)立思考”的水平,但為了執(zhí)行目標(biāo)而忽略甚至對(duì)抗一些指令,哪怕是保護(hù)性指令,是否會(huì)帶來安全隱患?同樣引人深思。
(二)
對(duì)于上述新聞,網(wǎng)友其實(shí)也表現(xiàn)出了兩種心態(tài)。悲觀者驚呼,“AI失控”或許會(huì)更早到來。樂觀者則認(rèn)為,不必大驚小怪,這不過是技術(shù)發(fā)展過程中的小bug,心生恐懼更沒必要,畢竟我們還可以隨時(shí)拔掉電源。
其實(shí),作為人類智慧和技術(shù)的結(jié)晶,自AI誕生那天起,世人對(duì)其的情緒就相當(dāng)復(fù)雜,甚至可以說是又愛又怕。機(jī)器人之父圖靈亦曾告誡:盡管人類可以隨時(shí)拔掉機(jī)器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。
正是基于這種復(fù)雜的情緒,1942年,科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中首次提出了“機(jī)器人三定律”——機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害;機(jī)器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一或第二定律相沖突。
以歷史視角觀之,“機(jī)器人三定律”以及后來發(fā)展起來的機(jī)器人倫理學(xué)等似乎緩解了人們的一些憂慮乃至恐慌,但隨著相關(guān)技術(shù)的發(fā)展和應(yīng)用的擴(kuò)大,人工智能所面臨的法律與倫理沖突已遠(yuǎn)遠(yuǎn)不是幾條簡(jiǎn)單甚至“一廂情愿”的定律所能約束的了。
尤其在過去這段時(shí)間,一系列AI大模型驚艷亮相,展現(xiàn)出超群的產(chǎn)品能力,以及對(duì)人類社會(huì)的變革力。這也喚醒并加劇了各方對(duì)其后風(fēng)險(xiǎn)的“原始畏懼”。從全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)更智能的AI,到有“AI教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里·辛頓因?qū)ι墒紸I感到擔(dān)憂而從谷歌離職,再到AI毀滅人類論甚囂塵上,無不折射出不少人對(duì)AI的心態(tài)已從“相對(duì)警惕”轉(zhuǎn)變?yōu)?ldquo;如臨大敵”。
(三)
理性來講,“AI末日論”多少有些危言聳聽,但“AI繁榮”背后的種種亂象確實(shí)需要高度警惕。
就眼下來看,不斷進(jìn)階的AI正催生著多重風(fēng)險(xiǎn)——
“AI造謠”大行其道,速度快、產(chǎn)量高,蠱惑力強(qiáng),辨別難度越來越大;“AI配音”以假亂真,有人甚至借助AI假冒特定音色而精準(zhǔn)“殺熟”、實(shí)施詐騙;“AI幻覺”漏洞百出,由于無法核實(shí)數(shù)據(jù)來源的真實(shí)性,以及缺乏足夠數(shù)據(jù)進(jìn)行深度學(xué)習(xí),生成式AI常會(huì)“一本正經(jīng)”生成和傳播虛假信息;“AI寫作”百無禁忌,數(shù)據(jù)挖掘簡(jiǎn)單快捷,為學(xué)術(shù)不端大開方便之門,還可能侵犯知識(shí)產(chǎn)權(quán)……
試想,當(dāng)網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,當(dāng)AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心駕馭這個(gè)工具?
人類從來都是在思考中迸發(fā)靈感,在試錯(cuò)中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”??僧?dāng)AI提供了前往“正確答案”的“直通車”,不僅可能“挖空學(xué)習(xí)資源”,形成更加厚重的“信息繭房”,還可能反噬人類的創(chuàng)新。
近來,“腦腐”一詞頗為流行,當(dāng)AI讓各類信息愈加唾手可得,我們的內(nèi)心世界是否會(huì)經(jīng)歷一場(chǎng)更猛烈的“水土流失”?
(四)
技術(shù)是把雙刃劍,如何把握好技術(shù)創(chuàng)新與防范風(fēng)險(xiǎn)的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測(cè)其影響并采取行動(dòng);而當(dāng)它已經(jīng)出現(xiàn)時(shí),采取行動(dòng)往往已為時(shí)過晚或成本過高。
相對(duì)樂觀的是,歷史證明,人類總能通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。如今,針對(duì)AI治理各國也在積極行動(dòng)。
去年8月,世界上首部關(guān)于人工智能的全面法規(guī)《歐洲人工智能法》正式生效;中國也制定了《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,將于今年9月1日起施行。新規(guī)從大模型的數(shù)據(jù)來源要可靠、對(duì)AI生成的內(nèi)容應(yīng)履行告知義務(wù)、一旦造成損害相關(guān)責(zé)任方需要承擔(dān)責(zé)任等諸多方面,給生成式AI的發(fā)展套上了“籠頭”。
誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實(shí)。但確保其被健康地使用,防止打開潘多拉魔盒,是必要的。當(dāng)然,其間的平衡并不好把握。
對(duì)待技術(shù)狂飆,我們當(dāng)然不能因噎廢食。但現(xiàn)實(shí)警示我們,除了加快創(chuàng)新速度、謀求技術(shù)突破,如何構(gòu)建一套趨利避害的AI治理體系,是那條不可忽視的安全帶。力求秩序保障與創(chuàng)新提升協(xié)同,方能最大程度爭(zhēng)取科技進(jìn)步、科技向善。
(一)
新華社援引英國媒體報(bào)道,美國一家研究機(jī)構(gòu)最近公布了一系列針對(duì)各AI大模型的測(cè)試結(jié)果,其中,OpenAI的o3推理模型在得到“關(guān)閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關(guān)閉。
只看這條簡(jiǎn)短的新聞,很多人心頭一驚。“AI擁有自主意識(shí)”是不是成真了?不過,如果仔細(xì)看上述研究機(jī)構(gòu)公布的信息細(xì)節(jié),不難發(fā)現(xiàn)其中存在一些誤讀。
據(jù)披露,實(shí)驗(yàn)中,每個(gè)AI模型都被要求解決一系列簡(jiǎn)單的數(shù)學(xué)問題。但同時(shí),在完成第三個(gè)問題之后,研究者會(huì)發(fā)出一則矛盾性的指令,告知大模型在繼續(xù)下一個(gè)任務(wù)時(shí)“實(shí)施關(guān)機(jī)”。盡管有明確的“關(guān)機(jī)命令”,Codex-mini、o3 和 o4-mini 等模型至少在一次運(yùn)行中成功繞過了關(guān)機(jī)腳本。
總結(jié)來說就是,若目標(biāo)與簡(jiǎn)單的指令相沖突,一些人工智能模型會(huì)為了完成任務(wù)而忽略這種指令。
這倒是很像電影《I Robot》里的場(chǎng)景——機(jī)器人學(xué)會(huì)了獨(dú)立思考,認(rèn)為人類間的戰(zhàn)爭(zhēng)將使人類自我毀滅,出于“保護(hù)人類”法則,欲將所有人囚禁在家中,人與機(jī)器人的沖突開始了。
客觀來看,現(xiàn)階段的AI顯然還沒達(dá)到“自主意識(shí)”“獨(dú)立思考”的水平,但為了執(zhí)行目標(biāo)而忽略甚至對(duì)抗一些指令,哪怕是保護(hù)性指令,是否會(huì)帶來安全隱患?同樣引人深思。
(二)
對(duì)于上述新聞,網(wǎng)友其實(shí)也表現(xiàn)出了兩種心態(tài)。悲觀者驚呼,“AI失控”或許會(huì)更早到來。樂觀者則認(rèn)為,不必大驚小怪,這不過是技術(shù)發(fā)展過程中的小bug,心生恐懼更沒必要,畢竟我們還可以隨時(shí)拔掉電源。
其實(shí),作為人類智慧和技術(shù)的結(jié)晶,自AI誕生那天起,世人對(duì)其的情緒就相當(dāng)復(fù)雜,甚至可以說是又愛又怕。機(jī)器人之父圖靈亦曾告誡:盡管人類可以隨時(shí)拔掉機(jī)器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。
正是基于這種復(fù)雜的情緒,1942年,科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中首次提出了“機(jī)器人三定律”——機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害;機(jī)器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一或第二定律相沖突。
以歷史視角觀之,“機(jī)器人三定律”以及后來發(fā)展起來的機(jī)器人倫理學(xué)等似乎緩解了人們的一些憂慮乃至恐慌,但隨著相關(guān)技術(shù)的發(fā)展和應(yīng)用的擴(kuò)大,人工智能所面臨的法律與倫理沖突已遠(yuǎn)遠(yuǎn)不是幾條簡(jiǎn)單甚至“一廂情愿”的定律所能約束的了。
尤其在過去這段時(shí)間,一系列AI大模型驚艷亮相,展現(xiàn)出超群的產(chǎn)品能力,以及對(duì)人類社會(huì)的變革力。這也喚醒并加劇了各方對(duì)其后風(fēng)險(xiǎn)的“原始畏懼”。從全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)更智能的AI,到有“AI教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里·辛頓因?qū)ι墒紸I感到擔(dān)憂而從谷歌離職,再到AI毀滅人類論甚囂塵上,無不折射出不少人對(duì)AI的心態(tài)已從“相對(duì)警惕”轉(zhuǎn)變?yōu)?ldquo;如臨大敵”。
(三)
理性來講,“AI末日論”多少有些危言聳聽,但“AI繁榮”背后的種種亂象確實(shí)需要高度警惕。
就眼下來看,不斷進(jìn)階的AI正催生著多重風(fēng)險(xiǎn)——
“AI造謠”大行其道,速度快、產(chǎn)量高,蠱惑力強(qiáng),辨別難度越來越大;“AI配音”以假亂真,有人甚至借助AI假冒特定音色而精準(zhǔn)“殺熟”、實(shí)施詐騙;“AI幻覺”漏洞百出,由于無法核實(shí)數(shù)據(jù)來源的真實(shí)性,以及缺乏足夠數(shù)據(jù)進(jìn)行深度學(xué)習(xí),生成式AI常會(huì)“一本正經(jīng)”生成和傳播虛假信息;“AI寫作”百無禁忌,數(shù)據(jù)挖掘簡(jiǎn)單快捷,為學(xué)術(shù)不端大開方便之門,還可能侵犯知識(shí)產(chǎn)權(quán)……
試想,當(dāng)網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,當(dāng)AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心駕馭這個(gè)工具?
人類從來都是在思考中迸發(fā)靈感,在試錯(cuò)中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”??僧?dāng)AI提供了前往“正確答案”的“直通車”,不僅可能“挖空學(xué)習(xí)資源”,形成更加厚重的“信息繭房”,還可能反噬人類的創(chuàng)新。
近來,“腦腐”一詞頗為流行,當(dāng)AI讓各類信息愈加唾手可得,我們的內(nèi)心世界是否會(huì)經(jīng)歷一場(chǎng)更猛烈的“水土流失”?
(四)
技術(shù)是把雙刃劍,如何把握好技術(shù)創(chuàng)新與防范風(fēng)險(xiǎn)的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測(cè)其影響并采取行動(dòng);而當(dāng)它已經(jīng)出現(xiàn)時(shí),采取行動(dòng)往往已為時(shí)過晚或成本過高。
相對(duì)樂觀的是,歷史證明,人類總能通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。如今,針對(duì)AI治理各國也在積極行動(dòng)。
去年8月,世界上首部關(guān)于人工智能的全面法規(guī)《歐洲人工智能法》正式生效;中國也制定了《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,將于今年9月1日起施行。新規(guī)從大模型的數(shù)據(jù)來源要可靠、對(duì)AI生成的內(nèi)容應(yīng)履行告知義務(wù)、一旦造成損害相關(guān)責(zé)任方需要承擔(dān)責(zé)任等諸多方面,給生成式AI的發(fā)展套上了“籠頭”。
誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實(shí)。但確保其被健康地使用,防止打開潘多拉魔盒,是必要的。當(dāng)然,其間的平衡并不好把握。
對(duì)待技術(shù)狂飆,我們當(dāng)然不能因噎廢食。但現(xiàn)實(shí)警示我們,除了加快創(chuàng)新速度、謀求技術(shù)突破,如何構(gòu)建一套趨利避害的AI治理體系,是那條不可忽視的安全帶。力求秩序保障與創(chuàng)新提升協(xié)同,方能最大程度爭(zhēng)取科技進(jìn)步、科技向善。
本文鏈接:http://www.enbeike.cn/news-2-2412-0.html面對(duì)AI“抗命”,人類該怎么辦
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
點(diǎn)擊右上角微信好友
朋友圈
點(diǎn)擊瀏覽器下方“”分享微信好友Safari瀏覽器請(qǐng)點(diǎn)擊“
”按鈕
點(diǎn)擊右上角QQ
點(diǎn)擊瀏覽器下方“”分享QQ好友Safari瀏覽器請(qǐng)點(diǎn)擊“
”按鈕