-
喬恩·阿斯科納斯、弗拉基米爾·波波夫:關于人工智能的常識
最后更新: 2023-11-30 09:10:34【導讀】 近一年來,由ChatGPT引發(fā)的通用人工智能浪潮席卷了全世界,其背后的OpenAI也成為當之無愧的明星公司。然而,這幾天OpenAI為全世界上演了一出震撼的“宮斗大戲”,其中似乎涉及公司高層對于通用人工智能未來發(fā)展的重大分歧。聯(lián)系ChatGPT橫空出世后出現(xiàn)的“暫停人工智能開發(fā)”的公開呼吁,圍繞通用人工智能的辯論已經(jīng)進入關鍵階段。
本文分析了當前人工智能社區(qū)內的意見分化:從主張立即暫停大型AI模型訓練,到將風險視為毫無根據(jù)的杞人憂天。作者主張區(qū)分“人工智能的風險”以及“對人工智能采取的安全措施的風險”這兩類風險。對于前者,人工智能的惡意使用和“自身缺陷”(如算法偏見等)暫不具備“毀滅人類”的能力,真正的危機可能來自于大部分計算機行業(yè)領袖對于“機器超越/取代人類”的狂熱追求,引發(fā)新一輪的軍備競賽。對于后者,一些面對極端后果的擔憂可能引發(fā)應激性的安全措施,如圍繞人工智能技術打造一個世界極權政府,讓“人類友好的AGI”打敗其他系統(tǒng)。
作者認為,當前圍繞人工智能辯論的一大傾向是過度集中于計算機科技領域的圈子。我們必須在利用人工智能帶來的生產(chǎn)力提升和日益復雜模型帶來的危險之間取得平衡。對這些平衡方法的探討,離不開對人類所有知識領域的見解的整合。
本文為歐亞系統(tǒng)科學研究會“關鍵技術中的競爭政治”系列編譯成果,原刊于《美國事務》(American Affairs),僅代表作者本人觀點。
【文/喬恩·阿斯科納斯、弗拉基米爾·波波夫,翻譯/慧諾】
圖源:互聯(lián)網(wǎng)
自ChatGPT發(fā)布之后,各種“先進的”人工智能層出不窮。與此同時,一群技術專家開始呼吁,各界應該立即停止六個月的大規(guī)模人工智能模型訓練。他們的公開信得到了特斯拉創(chuàng)始人埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克的簽署支持:“人工智能實驗室陷入了無法控制的競賽,不斷開發(fā)和部署更強大的數(shù)字智能。甚至連它們的創(chuàng)建者都無法理解、預測或可靠控制這些模型?!?
對于這封公開信,人工智能專家的意見分化非常嚴重。在一些主流媒體上,一些知名專家撰文認為,足夠先進的人工智能系統(tǒng)有可能摧毀我們所知的文明。他們和一些工程師都相信,“超級智能”機器可能比人類更強大,而這個未來將變得不可控,這對一個以自然選擇為基礎的世界來說并不是一個好兆頭。人工智能似乎激發(fā)了人類的“存在危機”。
其他資深專家則堅決反對暫停,并嘲笑這些人是“杞人憂天”。圖靈獎得主、人工智能先驅楊立昆戲稱,“在我們達到‘如上帝般的人工智能’之前,我們需要經(jīng)過‘如狗般的人工智能’。”如果因為錯誤的、未經(jīng)證明的科技恐懼而暫停人工智能發(fā)展,這將嚴重阻礙有各種可能促進人類繁榮的科學進步。
對于非專業(yè)人士來說,“人工智能”圈子內的爭論實在是讓人困惑,如果整個討論不能被稱為荒謬的話。這一次硅谷的炒作終于真的失控了嗎?或者,我們真的有足夠的理由去懷疑,人工智能科學家就是二十一世紀的核物理學家嗎?
對于有效地監(jiān)管人工智能,我們依然需要快速而明智地回答上述問題。不過,我們應該建立一種“常識性”方法,既能跟蹤到人工智能系統(tǒng)那些令人費解的前沿動態(tài),又能適度評估人工智能監(jiān)管和不當使用的風險。
一、人工智能的風險
在考慮最嚴重的人工智能場景之前,首先應該探討一下當前最近的風險。僅僅舉幾個例子,通過ChatGPT這樣的新語言模型,全球虛假和錯誤信息的傳播被明確加速,人工智能驅動的語音克隆已經(jīng)在電信詐騙中很普遍。
對于惡意行為者來說,強大的人工智能很容易被武器化。隨著人工智能在與人類心理和計算機系統(tǒng)的交互變得更加成熟,這些威脅很可能會不斷升級。網(wǎng)絡安全技術的可能被利用來實施新的黑客攻擊,就像機器助手也可悲用來創(chuàng)造新的自動武器。
與惡意行為者無關,新興的人工智能系統(tǒng)還帶來了另一種“無意的”嚴重風險,這往往被研究人員歸納為“人工智能安全”問題。例如,偏見問題已經(jīng)滲透到了各種各樣的人工智能模型中,系統(tǒng)性地歧視各種群體的就業(yè)、貸款申請,甚至監(jiān)禁時間。在自動駕駛、軍事打擊和健康診斷等生死攸關的領域,魯棒性——系統(tǒng)可靠執(zhí)行任務的能力——已經(jīng)是一個明顯問題。此外,未預見的人工智能與人類互動可能會產(chǎn)生災難性后果,比如高級聊天機器人可能鼓勵未成年人參與不適當?shù)男躁P系或嚴重惡化精神疾病。隨著人工智能越來越多地融入生活的各個方面,這些風險只有增加的可能。
然而,本文開篇“是否要暫停人工智能開發(fā)”的辯論并不來自于上述兩類風險,而是來自強大人工智能的增長軌跡。
人工智能的風險場景有多種形式,但通常都遵循相似的模式。理論家們認為,隨著人工智能變得越來越聰明和能干,某個時刻它們將能自主生成比人類更優(yōu)秀的智能體。此后,人工智能及其能力將以指數(shù)方式不斷增長,因為更聰明的系統(tǒng)繼續(xù)建造更聰明的系統(tǒng),形成一種良性循環(huán)。
理論認為,這種智能系統(tǒng)將遠遠超過人類的智能水平,很可能會偏離人類最初的意圖,因為后續(xù)的迭代將更多地受到機器反饋的影響,而不是經(jīng)過深思熟慮的人類設計。其結果將是,就像人類現(xiàn)在統(tǒng)治著不太聰明的生命形式一樣,超級人工智能將統(tǒng)治人類。不用說,這將把人類置于一個岌岌可危的位置。無論是由于自然選擇的壓力還是與人類福祉不一致的其他動機,超級人工智能很可能會隨著時間的推移將人類消滅。
這個理論可能聽起來像一個科幻寓言,但它卻在領先的工程師和商業(yè)領袖中獲得了出人意料的廣泛認可。為了強調這種結果的可能性,支持者指出,高度先進的模型會自發(fā)地發(fā)展出其制造者意料之外的技能;這種技能很難檢測,更不用說減輕了。最先進的語言模型已被證明極難以可靠的方式去理解或控制。人工智能系統(tǒng)已經(jīng)能在人類最復雜的策略游戲中一貫擊敗最優(yōu)秀的人類選手,甚至包括一些需要欺騙和操縱的游戲。如果高級人工智能脫離我們的掌握,這是一個黑暗的前兆。
然而,即便你我不相信人工智能將達到“神”一樣的地位,還是會有另一個平行的擔憂:一些人過于癡迷人工智能,并且試圖將整個千年的資源都投入其中。那些掌握著人工智能最大進展的人,都懷有實現(xiàn)超級人工智能的烏托邦愿景,并提供近乎宗教般的承諾。
頭部企業(yè)OpenAI的CEO山姆·阿爾特曼(Sam Altman)宣稱,構建超越人類的人工智能是“也許是人類歷史上最重要、最有希望、最可怕的項目”。Google的CEO孫達爾·皮柴(Sundar Pichai)也認為人工智能是“人類正在投身的最深刻的技術變革——比火和電還要深刻”。這種狂熱者的名單很長,包括該領域幾乎所有最有影響力的機構的領導者。
歷史上充斥著實現(xiàn)烏托邦夢想而走上歧途的災難性嘗試。每年涌入實驗室的數(shù)百億美元,用來實現(xiàn)那些全身心投入到上述目標的人的愿望。這并不是一個好兆頭,因為越來越多的人工智能公司正在逐漸放棄安全,只追求速度。考慮到新興人工智能技術的高度實驗性質、行業(yè)缺乏安全規(guī)范和標準,以及其領導者的危險野心,我們必須采取措施來控制多個層面不斷增長的風險。
二、人工智能安全措施的風險
在人工智能之外,其配套的安全措施也存在風險。當前一個關鍵觀點是,我們必須在評估中包括“治療性成本”(iatrogenic cost)。如果不這樣做,微小的邊際風險可能會導致巨大的成本。例如,美國食品藥品監(jiān)督管理局對Covid-19疫苗的安全評估模型中,就未能包含由于疫苗延遲部署而導致的額外死亡。
對于人工智能的安全措施,必須要在這一點上進行額外的審查,因為其政策建議和成本效益分析的許多依賴于“尾部風險”(tail risks,譯者注:在金融學中,尾部風險是指在巨災事件發(fā)生后,直到合約到期日或損失發(fā)展期的期末,巨災損失金額或證券化產(chǎn)品的結算價格還沒有被精確確定的風險)的權重,即極低概率、極高成本的事件。尾部風險無法被完全忽略,但要論證它們卻十分困難,因為使其發(fā)生的情況非常脆弱,越是高成本期望的情景,其發(fā)生的概率越小。對于人工智能安全的擔憂,必須同時分析其潛在危險的可能性及其對應的成本。
兩個因素可能會使我們對尾部風險場景的可能性產(chǎn)生懷疑。首先,雖然“這一次真的不一樣”是可能的,但許多新技術都曾引發(fā)了歇斯底里的“警情”。與基因編輯或核技術相比,人工智能系統(tǒng)將要進入的混亂人類世界似乎充滿了各種缺陷。當今世界,大多數(shù)關鍵系統(tǒng)仍然需要沉悶的手動操作,核導彈仍然運行在軟盤上,我們很難想象人工智能如何悄無聲息地進入物理世界,并且能啟動自組裝的納米機器工廠。
其次,使得當前人工智能運行的前提,即其理解背景的能力,往往會降低其風險。大多數(shù)讓人工智能發(fā)生風險的情景,其所需要的上下文前提往往非常“離譜”。例如,在一個名為“曲別針制造機”(Paperclip maximizer)的思想實驗中,一個通用人工智能(Artificial General Intelligence,AGI),其效用函數(shù)就是制造盡可能多的曲別針。換而言之,它的終極目的是制造曲別針這個看似無害的目標,并且它對人類沒有特殊的情感。但是,這樣一個看上去無害的人工智能卻很有可能對人類造成威脅。(譯者注:關于強人工智能/通用人工智能AGI,有一種理論叫做“工具趨同”理論,它認為無論目的為何,強人工智能總是會選擇相同的手段來更加有效地達成自己的目標:保證自身的存續(xù),自我改進,以及攫取更多資源。于是我們提到的這個專做曲別針的強人工智能在老實做一段時間的曲別針之后,就會以指數(shù)級的速度用周圍的資源增強自己,直到它將全宇宙的資源納入自己的系統(tǒng)中,并將所有的資源全部做成曲別針為止。即使不考慮這種極端情況,曲別針制造機也很可能會把人類的生活必需品甚至人類都收集來做曲別針,從而威脅到人類的生存。)
然而,要達到這樣強人工智能,就需要為大語言模型(Large Language Model,LLM)添加足夠的上下文和廣度,這就依賴直觀的人類限制。目前看來,改善LLM的大小和范圍似乎與改善其對人類上下文的理解是一回事。雖然圍繞這個問題的研究仍處于早期階段,但迄今為止,改善模型性能似乎也有利于人工智能在其初始狀態(tài)下與人類社會的對齊。
大語言模型(圖源:網(wǎng)絡)
- 原標題:OpenAI激烈內斗,曝光遏制派和加速派都無力應對的困局? 本文僅代表作者個人觀點。
- 責任編輯: 周子怡 
-
0.1微米!超精密加工利器來了
2023-11-30 08:15 中國精造 -
打造世界一流科技期刊,中國底氣在哪里?
2023-11-29 14:00 -
中國載人航天工程辦公室:盼港澳航天員進駐祖國空間站
2023-11-29 10:19 航空航天 -
中國空間站第一組全構型工作照發(fā)布
2023-11-28 16:58 航空航天 -
中國首顆高精度地磁場探測衛(wèi)星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鮮加快“萬里鏡-1”號偵察衛(wèi)星微調進程
2023-11-27 18:54 朝鮮現(xiàn)狀 -
如果未來20年“機器人女友”成為現(xiàn)實,人類能收獲AI愛情嗎?
2023-11-27 17:41 -
高林:發(fā)展人工智能應堅持“智能向善”
2023-11-27 15:03 人工智能 -
劉伯超:真誠希望中美雙方深化人工智能技術交流與合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”難題,我國首次成功研發(fā)!
2023-11-27 14:59 中國精造 -
我國首張,初步建成!完整覆蓋國土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原將赴伯克利任教,曾發(fā)現(xiàn)石墨烯超導角度轟動國際學界
2023-11-27 09:26 -
代表世界最高水平!這一核心裝備研制成功
2023-11-26 18:36 -
中外合作獲得高精度月表化學成分分布圖
2023-11-25 19:17 -
金正恩觀看偵察衛(wèi)星拍攝的首爾等重要目標地區(qū)圖片
2023-11-25 07:21 朝鮮現(xiàn)狀 -
“墨子”發(fā)現(xiàn)潛在威脅小行星!
2023-11-24 13:14 航空航天 -
全球首個商用海底數(shù)據(jù)中心今日下水,為什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程國產(chǎn)克隆貓降生!克隆技術全流程國產(chǎn)化意味著什么?
2023-11-24 06:54 -
顏寧回應當選中科院院士
2023-11-23 15:25 -
名單公布!46人當選2023年兩院外籍院士
2023-11-23 13:41
相關推薦 -
最新聞 Hot
-
馮德萊恩承認:來不及談成,退而求其次…
-
特朗普簽署行政令:外國游客得加錢
-
“美國解除對華C919發(fā)動機出口禁令”
-
連續(xù)3個月!中國拒買美國石油
-
“大而美”過了,特朗普將于4日簽署
-
王毅:希望德方像中國支持德國統(tǒng)一一樣,支持中國實現(xiàn)國家完全統(tǒng)一
-
“沒客戶!”獲47億補貼后,三星在美芯片廠推遲投產(chǎn)
-
約翰遜急著表決,民主黨領袖連續(xù)講了8個小時,還沒停…
-
“六代機機密會議,扎克伯格突然闖入”,白宮回應
-
8年后,默克爾吐槽特朗普:真裝!
-
美軍評估又變了,“不是幾個月是兩年”
-
“即使特朗普下臺,美國政策也不會變,中日韓要合作”
-
“船到橋頭自然直”,印外長回應美議員
-
俄海軍副總司令陣亡
-
“在越南的中國制造商松了一口氣”
-
他倒戈后就躲起來了,電話都不接,同僚評價:聰明
-