-
喬恩·阿斯科納斯、弗拉基米爾·波波夫:關(guān)于人工智能的常識(shí)
最后更新: 2023-11-30 09:10:34【導(dǎo)讀】 近一年來,由ChatGPT引發(fā)的通用人工智能浪潮席卷了全世界,其背后的OpenAI也成為當(dāng)之無愧的明星公司。然而,這幾天OpenAI為全世界上演了一出震撼的“宮斗大戲”,其中似乎涉及公司高層對(duì)于通用人工智能未來發(fā)展的重大分歧。聯(lián)系ChatGPT橫空出世后出現(xiàn)的“暫停人工智能開發(fā)”的公開呼吁,圍繞通用人工智能的辯論已經(jīng)進(jìn)入關(guān)鍵階段。
本文分析了當(dāng)前人工智能社區(qū)內(nèi)的意見分化:從主張立即暫停大型AI模型訓(xùn)練,到將風(fēng)險(xiǎn)視為毫無根據(jù)的杞人憂天。作者主張區(qū)分“人工智能的風(fēng)險(xiǎn)”以及“對(duì)人工智能采取的安全措施的風(fēng)險(xiǎn)”這兩類風(fēng)險(xiǎn)。對(duì)于前者,人工智能的惡意使用和“自身缺陷”(如算法偏見等)暫不具備“毀滅人類”的能力,真正的危機(jī)可能來自于大部分計(jì)算機(jī)行業(yè)領(lǐng)袖對(duì)于“機(jī)器超越/取代人類”的狂熱追求,引發(fā)新一輪的軍備競賽。對(duì)于后者,一些面對(duì)極端后果的擔(dān)憂可能引發(fā)應(yīng)激性的安全措施,如圍繞人工智能技術(shù)打造一個(gè)世界極權(quán)政府,讓“人類友好的AGI”打敗其他系統(tǒng)。
作者認(rèn)為,當(dāng)前圍繞人工智能辯論的一大傾向是過度集中于計(jì)算機(jī)科技領(lǐng)域的圈子。我們必須在利用人工智能帶來的生產(chǎn)力提升和日益復(fù)雜模型帶來的危險(xiǎn)之間取得平衡。對(duì)這些平衡方法的探討,離不開對(duì)人類所有知識(shí)領(lǐng)域的見解的整合。
本文為歐亞系統(tǒng)科學(xué)研究會(huì)“關(guān)鍵技術(shù)中的競爭政治”系列編譯成果,原刊于《美國事務(wù)》(American Affairs),僅代表作者本人觀點(diǎn)。
【文/喬恩·阿斯科納斯、弗拉基米爾·波波夫,翻譯/慧諾】
圖源:互聯(lián)網(wǎng)
自ChatGPT發(fā)布之后,各種“先進(jìn)的”人工智能層出不窮。與此同時(shí),一群技術(shù)專家開始呼吁,各界應(yīng)該立即停止六個(gè)月的大規(guī)模人工智能模型訓(xùn)練。他們的公開信得到了特斯拉創(chuàng)始人埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克的簽署支持:“人工智能實(shí)驗(yàn)室陷入了無法控制的競賽,不斷開發(fā)和部署更強(qiáng)大的數(shù)字智能。甚至連它們的創(chuàng)建者都無法理解、預(yù)測或可靠控制這些模型?!?
對(duì)于這封公開信,人工智能專家的意見分化非常嚴(yán)重。在一些主流媒體上,一些知名專家撰文認(rèn)為,足夠先進(jìn)的人工智能系統(tǒng)有可能摧毀我們所知的文明。他們和一些工程師都相信,“超級(jí)智能”機(jī)器可能比人類更強(qiáng)大,而這個(gè)未來將變得不可控,這對(duì)一個(gè)以自然選擇為基礎(chǔ)的世界來說并不是一個(gè)好兆頭。人工智能似乎激發(fā)了人類的“存在危機(jī)”。
其他資深專家則堅(jiān)決反對(duì)暫停,并嘲笑這些人是“杞人憂天”。圖靈獎(jiǎng)得主、人工智能先驅(qū)楊立昆戲稱,“在我們達(dá)到‘如上帝般的人工智能’之前,我們需要經(jīng)過‘如狗般的人工智能’?!比绻?yàn)殄e(cuò)誤的、未經(jīng)證明的科技恐懼而暫停人工智能發(fā)展,這將嚴(yán)重阻礙有各種可能促進(jìn)人類繁榮的科學(xué)進(jìn)步。
對(duì)于非專業(yè)人士來說,“人工智能”圈子內(nèi)的爭論實(shí)在是讓人困惑,如果整個(gè)討論不能被稱為荒謬的話。這一次硅谷的炒作終于真的失控了嗎?或者,我們真的有足夠的理由去懷疑,人工智能科學(xué)家就是二十一世紀(jì)的核物理學(xué)家嗎?
對(duì)于有效地監(jiān)管人工智能,我們依然需要快速而明智地回答上述問題。不過,我們應(yīng)該建立一種“常識(shí)性”方法,既能跟蹤到人工智能系統(tǒng)那些令人費(fèi)解的前沿動(dòng)態(tài),又能適度評(píng)估人工智能監(jiān)管和不當(dāng)使用的風(fēng)險(xiǎn)。
一、人工智能的風(fēng)險(xiǎn)
在考慮最嚴(yán)重的人工智能場景之前,首先應(yīng)該探討一下當(dāng)前最近的風(fēng)險(xiǎn)。僅僅舉幾個(gè)例子,通過ChatGPT這樣的新語言模型,全球虛假和錯(cuò)誤信息的傳播被明確加速,人工智能驅(qū)動(dòng)的語音克隆已經(jīng)在電信詐騙中很普遍。
對(duì)于惡意行為者來說,強(qiáng)大的人工智能很容易被武器化。隨著人工智能在與人類心理和計(jì)算機(jī)系統(tǒng)的交互變得更加成熟,這些威脅很可能會(huì)不斷升級(jí)。網(wǎng)絡(luò)安全技術(shù)的可能被利用來實(shí)施新的黑客攻擊,就像機(jī)器助手也可悲用來創(chuàng)造新的自動(dòng)武器。
與惡意行為者無關(guān),新興的人工智能系統(tǒng)還帶來了另一種“無意的”嚴(yán)重風(fēng)險(xiǎn),這往往被研究人員歸納為“人工智能安全”問題。例如,偏見問題已經(jīng)滲透到了各種各樣的人工智能模型中,系統(tǒng)性地歧視各種群體的就業(yè)、貸款申請(qǐng),甚至監(jiān)禁時(shí)間。在自動(dòng)駕駛、軍事打擊和健康診斷等生死攸關(guān)的領(lǐng)域,魯棒性——系統(tǒng)可靠執(zhí)行任務(wù)的能力——已經(jīng)是一個(gè)明顯問題。此外,未預(yù)見的人工智能與人類互動(dòng)可能會(huì)產(chǎn)生災(zāi)難性后果,比如高級(jí)聊天機(jī)器人可能鼓勵(lì)未成年人參與不適當(dāng)?shù)男躁P(guān)系或嚴(yán)重惡化精神疾病。隨著人工智能越來越多地融入生活的各個(gè)方面,這些風(fēng)險(xiǎn)只有增加的可能。
然而,本文開篇“是否要暫停人工智能開發(fā)”的辯論并不來自于上述兩類風(fēng)險(xiǎn),而是來自強(qiáng)大人工智能的增長軌跡。
人工智能的風(fēng)險(xiǎn)場景有多種形式,但通常都遵循相似的模式。理論家們認(rèn)為,隨著人工智能變得越來越聰明和能干,某個(gè)時(shí)刻它們將能自主生成比人類更優(yōu)秀的智能體。此后,人工智能及其能力將以指數(shù)方式不斷增長,因?yàn)楦斆鞯南到y(tǒng)繼續(xù)建造更聰明的系統(tǒng),形成一種良性循環(huán)。
理論認(rèn)為,這種智能系統(tǒng)將遠(yuǎn)遠(yuǎn)超過人類的智能水平,很可能會(huì)偏離人類最初的意圖,因?yàn)楹罄m(xù)的迭代將更多地受到機(jī)器反饋的影響,而不是經(jīng)過深思熟慮的人類設(shè)計(jì)。其結(jié)果將是,就像人類現(xiàn)在統(tǒng)治著不太聰明的生命形式一樣,超級(jí)人工智能將統(tǒng)治人類。不用說,這將把人類置于一個(gè)岌岌可危的位置。無論是由于自然選擇的壓力還是與人類福祉不一致的其他動(dòng)機(jī),超級(jí)人工智能很可能會(huì)隨著時(shí)間的推移將人類消滅。
這個(gè)理論可能聽起來像一個(gè)科幻寓言,但它卻在領(lǐng)先的工程師和商業(yè)領(lǐng)袖中獲得了出人意料的廣泛認(rèn)可。為了強(qiáng)調(diào)這種結(jié)果的可能性,支持者指出,高度先進(jìn)的模型會(huì)自發(fā)地發(fā)展出其制造者意料之外的技能;這種技能很難檢測,更不用說減輕了。最先進(jìn)的語言模型已被證明極難以可靠的方式去理解或控制。人工智能系統(tǒng)已經(jīng)能在人類最復(fù)雜的策略游戲中一貫擊敗最優(yōu)秀的人類選手,甚至包括一些需要欺騙和操縱的游戲。如果高級(jí)人工智能脫離我們的掌握,這是一個(gè)黑暗的前兆。
然而,即便你我不相信人工智能將達(dá)到“神”一樣的地位,還是會(huì)有另一個(gè)平行的擔(dān)憂:一些人過于癡迷人工智能,并且試圖將整個(gè)千年的資源都投入其中。那些掌握著人工智能最大進(jìn)展的人,都懷有實(shí)現(xiàn)超級(jí)人工智能的烏托邦愿景,并提供近乎宗教般的承諾。
頭部企業(yè)OpenAI的CEO山姆·阿爾特曼(Sam Altman)宣稱,構(gòu)建超越人類的人工智能是“也許是人類歷史上最重要、最有希望、最可怕的項(xiàng)目”。Google的CEO孫達(dá)爾·皮柴(Sundar Pichai)也認(rèn)為人工智能是“人類正在投身的最深刻的技術(shù)變革——比火和電還要深刻”。這種狂熱者的名單很長,包括該領(lǐng)域幾乎所有最有影響力的機(jī)構(gòu)的領(lǐng)導(dǎo)者。
歷史上充斥著實(shí)現(xiàn)烏托邦夢(mèng)想而走上歧途的災(zāi)難性嘗試。每年涌入實(shí)驗(yàn)室的數(shù)百億美元,用來實(shí)現(xiàn)那些全身心投入到上述目標(biāo)的人的愿望。這并不是一個(gè)好兆頭,因?yàn)樵絹碓蕉嗟娜斯ぶ悄芄菊谥饾u放棄安全,只追求速度??紤]到新興人工智能技術(shù)的高度實(shí)驗(yàn)性質(zhì)、行業(yè)缺乏安全規(guī)范和標(biāo)準(zhǔn),以及其領(lǐng)導(dǎo)者的危險(xiǎn)野心,我們必須采取措施來控制多個(gè)層面不斷增長的風(fēng)險(xiǎn)。
二、人工智能安全措施的風(fēng)險(xiǎn)
在人工智能之外,其配套的安全措施也存在風(fēng)險(xiǎn)。當(dāng)前一個(gè)關(guān)鍵觀點(diǎn)是,我們必須在評(píng)估中包括“治療性成本”(iatrogenic cost)。如果不這樣做,微小的邊際風(fēng)險(xiǎn)可能會(huì)導(dǎo)致巨大的成本。例如,美國食品藥品監(jiān)督管理局對(duì)Covid-19疫苗的安全評(píng)估模型中,就未能包含由于疫苗延遲部署而導(dǎo)致的額外死亡。
對(duì)于人工智能的安全措施,必須要在這一點(diǎn)上進(jìn)行額外的審查,因?yàn)槠湔呓ㄗh和成本效益分析的許多依賴于“尾部風(fēng)險(xiǎn)”(tail risks,譯者注:在金融學(xué)中,尾部風(fēng)險(xiǎn)是指在巨災(zāi)事件發(fā)生后,直到合約到期日或損失發(fā)展期的期末,巨災(zāi)損失金額或證券化產(chǎn)品的結(jié)算價(jià)格還沒有被精確確定的風(fēng)險(xiǎn))的權(quán)重,即極低概率、極高成本的事件。尾部風(fēng)險(xiǎn)無法被完全忽略,但要論證它們卻十分困難,因?yàn)槭蛊浒l(fā)生的情況非常脆弱,越是高成本期望的情景,其發(fā)生的概率越小。對(duì)于人工智能安全的擔(dān)憂,必須同時(shí)分析其潛在危險(xiǎn)的可能性及其對(duì)應(yīng)的成本。
兩個(gè)因素可能會(huì)使我們對(duì)尾部風(fēng)險(xiǎn)場景的可能性產(chǎn)生懷疑。首先,雖然“這一次真的不一樣”是可能的,但許多新技術(shù)都曾引發(fā)了歇斯底里的“警情”。與基因編輯或核技術(shù)相比,人工智能系統(tǒng)將要進(jìn)入的混亂人類世界似乎充滿了各種缺陷。當(dāng)今世界,大多數(shù)關(guān)鍵系統(tǒng)仍然需要沉悶的手動(dòng)操作,核導(dǎo)彈仍然運(yùn)行在軟盤上,我們很難想象人工智能如何悄無聲息地進(jìn)入物理世界,并且能啟動(dòng)自組裝的納米機(jī)器工廠。
其次,使得當(dāng)前人工智能運(yùn)行的前提,即其理解背景的能力,往往會(huì)降低其風(fēng)險(xiǎn)。大多數(shù)讓人工智能發(fā)生風(fēng)險(xiǎn)的情景,其所需要的上下文前提往往非?!半x譜”。例如,在一個(gè)名為“曲別針制造機(jī)”(Paperclip maximizer)的思想實(shí)驗(yàn)中,一個(gè)通用人工智能(Artificial General Intelligence,AGI),其效用函數(shù)就是制造盡可能多的曲別針。換而言之,它的終極目的是制造曲別針這個(gè)看似無害的目標(biāo),并且它對(duì)人類沒有特殊的情感。但是,這樣一個(gè)看上去無害的人工智能卻很有可能對(duì)人類造成威脅。(譯者注:關(guān)于強(qiáng)人工智能/通用人工智能AGI,有一種理論叫做“工具趨同”理論,它認(rèn)為無論目的為何,強(qiáng)人工智能總是會(huì)選擇相同的手段來更加有效地達(dá)成自己的目標(biāo):保證自身的存續(xù),自我改進(jìn),以及攫取更多資源。于是我們提到的這個(gè)專做曲別針的強(qiáng)人工智能在老實(shí)做一段時(shí)間的曲別針之后,就會(huì)以指數(shù)級(jí)的速度用周圍的資源增強(qiáng)自己,直到它將全宇宙的資源納入自己的系統(tǒng)中,并將所有的資源全部做成曲別針為止。即使不考慮這種極端情況,曲別針制造機(jī)也很可能會(huì)把人類的生活必需品甚至人類都收集來做曲別針,從而威脅到人類的生存。)
然而,要達(dá)到這樣強(qiáng)人工智能,就需要為大語言模型(Large Language Model,LLM)添加足夠的上下文和廣度,這就依賴直觀的人類限制。目前看來,改善LLM的大小和范圍似乎與改善其對(duì)人類上下文的理解是一回事。雖然圍繞這個(gè)問題的研究仍處于早期階段,但迄今為止,改善模型性能似乎也有利于人工智能在其初始狀態(tài)下與人類社會(huì)的對(duì)齊。
大語言模型(圖源:網(wǎng)絡(luò))
- 原標(biāo)題:OpenAI激烈內(nèi)斗,曝光遏制派和加速派都無力應(yīng)對(duì)的困局? 本文僅代表作者個(gè)人觀點(diǎn)。
- 責(zé)任編輯: 周子怡 
-
0.1微米!超精密加工利器來了
2023-11-30 08:15 中國精造 -
打造世界一流科技期刊,中國底氣在哪里?
2023-11-29 14:00 -
中國載人航天工程辦公室:盼港澳航天員進(jìn)駐祖國空間站
2023-11-29 10:19 航空航天 -
中國空間站第一組全構(gòu)型工作照發(fā)布
2023-11-28 16:58 航空航天 -
中國首顆高精度地磁場探測衛(wèi)星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鮮加快“萬里鏡-1”號(hào)偵察衛(wèi)星微調(diào)進(jìn)程
2023-11-27 18:54 朝鮮現(xiàn)狀 -
如果未來20年“機(jī)器人女友”成為現(xiàn)實(shí),人類能收獲AI愛情嗎?
2023-11-27 17:41 -
高林:發(fā)展人工智能應(yīng)堅(jiān)持“智能向善”
2023-11-27 15:03 人工智能 -
劉伯超:真誠希望中美雙方深化人工智能技術(shù)交流與合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”難題,我國首次成功研發(fā)!
2023-11-27 14:59 中國精造 -
我國首張,初步建成!完整覆蓋國土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原將赴伯克利任教,曾發(fā)現(xiàn)石墨烯超導(dǎo)角度轟動(dòng)國際學(xué)界
2023-11-27 09:26 -
代表世界最高水平!這一核心裝備研制成功
2023-11-26 18:36 -
中外合作獲得高精度月表化學(xué)成分分布圖
2023-11-25 19:17 -
金正恩觀看偵察衛(wèi)星拍攝的首爾等重要目標(biāo)地區(qū)圖片
2023-11-25 07:21 朝鮮現(xiàn)狀 -
“墨子”發(fā)現(xiàn)潛在威脅小行星!
2023-11-24 13:14 航空航天 -
全球首個(gè)商用海底數(shù)據(jù)中心今日下水,為什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程國產(chǎn)克隆貓降生!克隆技術(shù)全流程國產(chǎn)化意味著什么?
2023-11-24 06:54 -
顏寧回應(yīng)當(dāng)選中科院院士
2023-11-23 15:25 -
名單公布!46人當(dāng)選2023年兩院外籍院士
2023-11-23 13:41
相關(guān)推薦 -
“果然,中國說對(duì)了” 評(píng)論 109“特朗普會(huì)讓世界團(tuán)結(jié)起來,減少對(duì)美依賴” 評(píng)論 205“剛剛,我看到了未來,它不在美國” 評(píng)論 160特朗普竟對(duì)中國征收34%“對(duì)等關(guān)稅” 評(píng)論 953解放日?“對(duì)于市場而言這是‘屠戮日’” 評(píng)論 71最新聞 Hot
-
“美國這么做,堵不住我的嘴”
-
“對(duì)等關(guān)稅”竟是這么算的?經(jīng)濟(jì)學(xué)家集體傻眼
-
“果然,中國說對(duì)了”
-
加拿大發(fā)愁:躲過子彈,卻撞上坦克
-
內(nèi)塔尼亞胡來了,匈牙利退了
-
“禁令之前就有,但伯恩斯離任前擴(kuò)大了范圍”
-
“地球上沒一個(gè)地方是安全的”
-
“美國是特朗普關(guān)稅政策下的最大輸家”
-
“對(duì)臺(tái)灣地區(qū)沖擊明顯,非常可怕”
-
“剛剛,我看到了未來,它不在美國”
-
誰被征了50%的最高關(guān)稅?
-
四名共和黨議員倒戈阻止對(duì)加關(guān)稅,特朗普破口大罵
-
“特朗普會(huì)讓世界團(tuán)結(jié)起來,減少對(duì)美依賴”
-
特朗普發(fā)動(dòng)全球關(guān)稅戰(zhàn),美國VS全世界
-
結(jié)束全球化?“不是按個(gè)開關(guān),美國就能搖身一變”
-
諾獎(jiǎng)得主克魯格曼:特朗普在貿(mào)易上已經(jīng)徹底瘋了
-