探索人工智能的夢想從來就不是創(chuàng)造一個(gè)能擊敗國際象棋大師的程序,或者搭建一個(gè)試圖破壞婚姻的聊天機(jī)器人。實(shí)際上,它讓我們以技術(shù)為鏡來反觀自身,從而更深刻地認(rèn)識(shí)自我。研究者追求的不僅僅是人工智能,而是具備類人的適應(yīng)性和創(chuàng)造力的通用人工智能(AGI)。
1、邁向通用人工智能
大語言模型(LLM)已經(jīng)展現(xiàn)出遠(yuǎn)超研究者預(yù)期的問題解決能力。但是,它們?nèi)圆粫r(shí)犯下可笑的錯(cuò)誤,并缺乏開放學(xué)習(xí)的能力:一旦完成根據(jù)書籍、博客和其他材料的訓(xùn)練,它們的知識(shí)庫就會(huì)凍結(jié)。它們也不能通過專家設(shè)計(jì)的“機(jī)器人大學(xué)生測試”:無法完成大學(xué)教育,甚至幼兒園教育也不行。
這些系統(tǒng)真正解決的AGI問題是語言。它們擁有所謂的“形式表達(dá)能力”:LLM能解析你提供的所有句子,即使是只言片語或俚語它也能搞明白,還能以類似維基百科的標(biāo)準(zhǔn)英語作出回復(fù)。但是,它們不具備那些能夠幫助我們處理日常生活的思維能力?!拔覀儾粦?yīng)該期望它們能夠思考,”麻省理工學(xué)院的神經(jīng)科學(xué)家南希·坎威舍說,“它們是語言處理器。”LLM能熟練地操縱文字,但除了已經(jīng)掌握的文本之外,它們并沒有與現(xiàn)實(shí)互動(dòng)。
從這個(gè)意義上講,大語言模型只是模仿了大腦的語言能力,卻缺乏感知、記憶、導(dǎo)航、社會(huì)判斷等能力。我們的大腦灰質(zhì)執(zhí)行的功能互相重疊,既紛繁復(fù)雜又渾然一體——它們或廣泛分布在多個(gè)腦區(qū),或局限于某個(gè)特定腦區(qū)。例如,那些大腦語言功能區(qū)中風(fēng)的患者可能無法說話,但他們?nèi)阅軌蛳褚郧耙粯幼黾訙p運(yùn)算,創(chuàng)作交響曲,下棋,還能通過手勢交流。AI的開發(fā)者正將這類功能模塊引入到他們的系統(tǒng)之中,希望使它們更加智能。
生成式預(yù)訓(xùn)練變換器(GPT)的創(chuàng)造者OpenAI,通過插件來幫助付費(fèi)用戶完成數(shù)學(xué)運(yùn)算、互聯(lián)網(wǎng)搜索和其他查詢?nèi)蝿?wù)。每個(gè)插件都有一個(gè)專用的,接受過預(yù)訓(xùn)練的專業(yè)知識(shí)庫可供調(diào)用。其實(shí),GPT的核心語言系統(tǒng)在某種意義上也是模塊化的。OpenAI對GPT的架構(gòu)嚴(yán)格保密,但眾多AI研究者推測,GPT由多達(dá)16個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò)或“專家”組成,這些“專家”通過匯集它們的輸出來回答用戶的問詢,但是匯集的工作機(jī)制尚不明確。2023年12月,總部位于法國巴黎的AI公司Mistral也發(fā)布了一款基于“混合專家”架構(gòu)(MoE)的開源模型,引發(fā)了巨大轟動(dòng)。這種形式簡單的模塊化架構(gòu),主要優(yōu)勢就是計(jì)算效率:訓(xùn)練和運(yùn)行16個(gè)較小的(神經(jīng))網(wǎng)絡(luò)比運(yùn)行一個(gè)大型(神經(jīng))網(wǎng)絡(luò)更容易?!斑@個(gè)‘MoE架構(gòu)’實(shí)現(xiàn)了兩全其美?!庇鴲鄱”ご髮W(xué)的AI研究員埃多阿多·蓬蒂說,“我們能得到一個(gè)擁有大量參數(shù)的系統(tǒng),同時(shí)保持了小模型的效率?!?/span>
但是,模塊化也帶來了問題。沒有人確切知道大腦的各個(gè)區(qū)域如何協(xié)同工作以創(chuàng)造出一個(gè)和諧的自我,更不用說機(jī)器如何去模仿這一點(diǎn)了。“語言系統(tǒng)是如何將信息傳遞給邏輯推理系統(tǒng)或社會(huì)推理系統(tǒng)的?”麻省理工學(xué)院的神經(jīng)科學(xué)家安娜·伊萬諾娃為此感到非常好奇,“這仍然是一個(gè)懸而未決的問題?!?/span>
一個(gè)大膽的假設(shè)是,意識(shí)是這一切的基礎(chǔ)。根據(jù)“全局工作空間理論”(GWT),意識(shí)對大腦來說就像是公司的員工會(huì)議,是一個(gè)為各個(gè)模塊提供可以分享信息并提供幫助的地方。當(dāng)然,GWT并非意識(shí)的理論,但AI研究者對它特別有興趣,因?yàn)樗岢隽艘粋€(gè)大膽的假設(shè),即意識(shí)對于高智能至關(guān)重要。完成一個(gè)簡單或熟練的任務(wù)時(shí),大腦可以自動(dòng)運(yùn)行。但是,當(dāng)全新或者復(fù)雜的任務(wù)出現(xiàn),并且超出了單一模塊范疇時(shí),我們需要意識(shí)到自己正在做什么。
戈策爾等學(xué)者已經(jīng)將GWT的工作空間融入了他們的AI系統(tǒng)?!拔艺J(rèn)為全局工作空間模型的核心理念將以許多種不同的形式出現(xiàn),”他說。研究人員在AI系統(tǒng)中運(yùn)用GWT,目的并不是制造有意識(shí)的機(jī)器。相反,他們只是通過在硬件上實(shí)現(xiàn)GWT來獲得類似人類的智能。
但是,在這個(gè)過程中,他們是否會(huì)在無意中創(chuàng)造出一個(gè)具有感覺和動(dòng)機(jī)的有意識(shí)生命?GWT的提出者、加利福尼亞州拉荷亞神經(jīng)科學(xué)研究所的伯納德·巴爾斯認(rèn)為這不太可能?!坝幸庾R(shí)計(jì)算是一個(gè)絲毫沒有證據(jù)的假設(shè),”他說。但如果AI研究者確實(shí)成功創(chuàng)建出了AGI,它們可能會(huì)對智能本身的架構(gòu)和功能提供關(guān)鍵的洞察。
2、意識(shí)模型
GWT長期以來一直是神經(jīng)科學(xué)和人工智能研究相互促進(jìn)的典型案例。這個(gè)理論早可以追溯到20世紀(jì)50年代,計(jì)算機(jī)科學(xué)家奧利弗·塞爾弗里奇提出的“鬼域”圖像識(shí)別系統(tǒng)。他將該系統(tǒng)的模塊類比于彌爾頓《失樂園》地獄中那些通過尖叫來吸引注意的惡魔。與塞爾弗里奇同時(shí)代的研究者艾倫·紐厄爾則選擇了一個(gè)更安靜的隱喻,即一群數(shù)學(xué)家聚集在一塊黑板面前共同解決問題。這些比喻之后被認(rèn)知心理學(xué)家所借鑒——20世紀(jì)80年代,巴爾斯提出了用GWT來解釋人類意識(shí)?!霸谖业恼麄€(gè)職業(yè)生涯中,我從人工智能領(lǐng)域?qū)W到了很多,因?yàn)樗旧鲜俏覀儞碛械目尚械睦碚撈脚_(tái)?!彼f。
巴爾斯的GWT啟發(fā)了孟菲斯大學(xué)的計(jì)算機(jī)科學(xué)家斯坦利·富蘭克林去構(gòu)建一臺(tái)有意識(shí)的計(jì)算機(jī)。無論富蘭克林的機(jī)器是否真的產(chǎn)生了意識(shí)——巴爾斯和富蘭克林本人對此表示懷疑——它至少復(fù)現(xiàn)了人類心理的一些獨(dú)特癖好。例如,當(dāng)它的注意力從一件事轉(zhuǎn)移到另一件事時(shí),它會(huì)丟失一些關(guān)鍵信息,因此這臺(tái)計(jì)算機(jī)在多任務(wù)處理的表現(xiàn)和人類一樣糟糕。從20世紀(jì)90年代開始,法國巴黎法蘭西公學(xué)院的神經(jīng)科學(xué)家斯坦尼斯拉斯·德阿納和讓-皮埃爾·尚熱試圖揭示GWT的神經(jīng)連接模式。
在德阿納和尚熱的模型中,大腦的功能模塊在大部分時(shí)間中獨(dú)立運(yùn)作。但是,每隔十分之一秒左右,它們就會(huì)進(jìn)行一次“員工會(huì)議”。這個(gè)會(huì)議是一個(gè)遵循既定規(guī)則的喊叫比賽:每個(gè)模塊都有一些信息需要提交,而它對該信息越自信——例如,刺激與預(yù)期越是匹配,它就會(huì)喊得越響。一旦一個(gè)模塊占據(jù)了上風(fēng),其他模塊就會(huì)在下一刻安靜下來,而勝出者則會(huì)將該信息放到一組公共變量之中,即工作空間。其他模塊則會(huì)自行判斷信息的有用性?!霸谶@個(gè)有趣的過程中,模塊之間既合作又競爭,每個(gè)模塊都是解決問題不可或缺的一部分,”巴爾斯說。
工作空間不僅讓模塊彼此通信,而且提供了一個(gè)“論壇”,即使有些信息不再被呈遞給感官,不同模塊也可以在這個(gè)空間里集體思考。“你可以獲得一些來自外部世界的東西——也許是一種轉(zhuǎn)瞬即逝的感覺,雖然它從感官中消失了,但它還會(huì)繼續(xù)在工作空間中回響?!钡掳⒓{說。這種協(xié)商式思考的能力對于解決涉及多個(gè)步驟或跨越一段時(shí)間的問題至關(guān)重要。德阿納在實(shí)驗(yàn)室中對人類被試開展了實(shí)驗(yàn),他發(fā)現(xiàn),當(dāng)人類被試面臨上述問題時(shí),他們必須有意識(shí)地思考。
GWT摒棄了在模塊之間指派任務(wù)的老板,因?yàn)榉峙淙蝿?wù)很難正確完成。在數(shù)學(xué)領(lǐng)域,委托(或者在不同參與者之間分配責(zé)任以實(shí)現(xiàn)佳績效)屬于所謂的NP-困難問題,解決起來可能非常耗時(shí)。在許多存在“老板”的系統(tǒng)中,如OpenAI可能使用的混合專家架構(gòu),一個(gè)“門控”網(wǎng)絡(luò)負(fù)責(zé)分配任務(wù),但它必須與模塊們一起訓(xùn)練,而且這個(gè)訓(xùn)練過程極易崩潰。首先,它遇到了蓬蒂所稱的“先有蛋還是先有雞的問題”:因?yàn)槟K依賴于門控,而門控又依賴于模塊,所以訓(xùn)練可能會(huì)陷入循環(huán)。其次,即使訓(xùn)練成功,門控的分配機(jī)制也是一個(gè)黑匣子,其工作原理不透明。
2021年,卡內(nèi)基-梅隆大學(xué)的數(shù)學(xué)家和榮譽(yù)退休教授曼努埃爾·布盧姆和萊諾爾·布盧姆夫婦詳細(xì)闡述了一種全局工作空間中的注意力爭奪機(jī)制。這個(gè)機(jī)制能夠確保模塊不會(huì)過分自信地提供信息,從而防止“吹牛大王”長期霸占工作空間。同時(shí),模塊之間還可以發(fā)展出繞過工作空間的直接連接。這種“捷徑小道”可以解釋我們學(xué)習(xí)騎自行車或演奏樂器時(shí)的認(rèn)知加工過程:一旦我們學(xué)會(huì)了騎車或演奏,參與的模塊們就會(huì)產(chǎn)生直接連接,它們會(huì)將任務(wù)離線處理,不再需要意識(shí)的參與?!八鼘⑿枰唐谟洃泤⑴c的加工過程轉(zhuǎn)變?yōu)榱藷o意識(shí)的加工過程?!比R諾爾·布盧姆說。
這是因?yàn)橛幸庾R(shí)地注意是一種稀缺資源。工作空間中的信息存儲(chǔ)容量有限,所以勝出的模塊在向其他模塊傳輸內(nèi)容時(shí),必須極具選擇性。這聽起來像是一個(gè)有缺陷的設(shè)計(jì)?!按竽X為什么對可以同時(shí)思考的事情數(shù)量做這樣的限制?”加拿大蒙特利爾大學(xué)的AI研究者約書亞·本希奧抱有這樣的疑問。但他認(rèn)為這種限制是一件好事:它強(qiáng)化了認(rèn)知的法則和紀(jì)律——由于世界的復(fù)雜性難以被全部追蹤,所以我們的大腦必須識(shí)別出復(fù)雜現(xiàn)象背后的簡單規(guī)則?!斑@個(gè)瓶頸迫使我們?nèi)ダ斫馐澜绲倪\(yùn)作機(jī)制,”他說。
對本希奧來說,GWT對AI的重要啟發(fā)是:今天的人工神經(jīng)網(wǎng)絡(luò)過于強(qiáng)大,反而不利于自身發(fā)展——它們擁有數(shù)十億甚至數(shù)萬億的參數(shù),足以容納海量的互聯(lián)網(wǎng)內(nèi)容;但是,它們傾向于陷入細(xì)枝末節(jié)而忽略從這些內(nèi)容中蒸餾出更為通用的機(jī)制。如果它們要以更類似人類意識(shí)思維的方式運(yùn)作,使其龐大的知識(shí)庫通過一個(gè)狹窄的漏斗,也許會(huì)更好。
3、讓AI“學(xué)會(huì)”選擇
本希奧在接觸GWT之前,就已經(jīng)開始努力將這種“類意識(shí)瓶頸”融入AI系統(tǒng)之中了。在21世紀(jì)10年代初期,由于我們的大腦會(huì)選擇性地注意一個(gè)信息片段,并暫時(shí)忽略其他所有信息,受到這一啟發(fā),本希奧和他的同事在神經(jīng)網(wǎng)絡(luò)中構(gòu)建了一個(gè)類似的過濾器。例如,當(dāng)一個(gè)語言模型(比如GPT)遇到一個(gè)代詞,它需要找到這個(gè)詞的指代對象,一般是通過突顯出臨近的名詞并抑制其他詞性的詞來實(shí)現(xiàn)。實(shí)際上,它“把注意力給到了”理解文本所需的關(guān)鍵詞。當(dāng)然,代詞也可能與形容詞、動(dòng)詞等相關(guān)聯(lián),神經(jīng)網(wǎng)絡(luò)的不同部分可以同時(shí)關(guān)注不同的詞語關(guān)系。
但是本希奧發(fā)現(xiàn),這種注意力機(jī)制帶來了一個(gè)小問題。如果神經(jīng)網(wǎng)絡(luò)完全忽略某些單詞,它會(huì)根據(jù)流程將對應(yīng)于這些單詞的權(quán)重置零。這樣的突變就像把一個(gè)扳手扔進(jìn)正在高速轉(zhuǎn)動(dòng)的發(fā)動(dòng)機(jī)里一樣,會(huì)擾亂反向傳播這一訓(xùn)練神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)程序。反向傳播通過神經(jīng)網(wǎng)絡(luò)的輸出來追溯產(chǎn)生它的計(jì)算,如果輸出是錯(cuò)誤的,那么就可以修正產(chǎn)生該錯(cuò)誤的計(jì)算。但是,權(quán)重置零帶來的突變會(huì)干擾溯源。
據(jù)此,本希奧和同事發(fā)明了“軟注意力機(jī)制”——神經(jīng)網(wǎng)絡(luò)具有選擇性,但并不做極端選擇。當(dāng)判斷一個(gè)代詞可能會(huì)與哪些單詞有關(guān)時(shí),該機(jī)制會(huì)為不同選項(xiàng)賦予非零的權(quán)重。盡管一些單詞的權(quán)重會(huì)比其他單詞更高,但所有單詞都不會(huì)被淘汰出局。“你得到80%的這個(gè),20%的那個(gè),因?yàn)檫@些注意力分配的權(quán)重是連續(xù)的,那么就不影響反向傳播的微積分操作,”本希奧解釋道。這種軟注意力機(jī)制是變換器架構(gòu)——GPT中的“T”的關(guān)鍵創(chuàng)新。
近年來,本希奧重新審視了這種方法以創(chuàng)建一個(gè)更為嚴(yán)格的“瓶頸”。他認(rèn)為,想要讓網(wǎng)絡(luò)獲得真正的理解能力,這一步至關(guān)重要。一個(gè)真正的全局工作空間必須做出硬性選擇,因?yàn)樗鼪]有足夠的容量跟蹤所有選項(xiàng)。2021年,本希奧和他的同事設(shè)計(jì)了一個(gè)被稱為“生成流”的網(wǎng)絡(luò),它會(huì)周期性地從可用選項(xiàng)中做出選擇,每個(gè)選項(xiàng)的中選概率由其注意力權(quán)重決定。他通過前向或反向傳播來訓(xùn)練網(wǎng)絡(luò),而不僅僅依賴于反向傳播。這樣一來,即使出現(xiàn)權(quán)重突變,該網(wǎng)絡(luò)仍可以回頭去修正產(chǎn)生錯(cuò)誤輸出的計(jì)算。通過一系列實(shí)驗(yàn),本希奧已經(jīng)證明,該系統(tǒng)針對輸入數(shù)據(jù)產(chǎn)生的高表征與我們的大腦產(chǎn)生的表征類似。
4、跨模態(tài)對話
實(shí)現(xiàn)全局工作空間的另一個(gè)挑戰(zhàn)是高度專業(yè)化。就像大學(xué)里不同院系的教授們一樣,大腦的各個(gè)模塊創(chuàng)造了彼此無法理解的術(shù)語。視覺模塊產(chǎn)生了抽象概念,讓其能夠處理來自眼睛的輸入信息;聽覺模塊則發(fā)展出與內(nèi)耳振動(dòng)信號(hào)相匹配的表征。那么它們?nèi)绾伪舜送ㄐ拍??它們必須找到某種通用語或者亞里士多德口中的“共通感”——也是現(xiàn)代英語中“常識(shí)”一詞的原始含義。這種需求在各大科技公司推出的“多模態(tài)”網(wǎng)絡(luò)中尤為迫切,因?yàn)檫@種AI模型能將文本與圖像以及其他形式的數(shù)據(jù)結(jié)合使用。
在德阿納和尚熱的GWT版本中,模塊之間依靠神經(jīng)元形成連接,后者通過調(diào)整它們的突觸來將輸入轉(zhuǎn)換成本地方言?!八鼈儗⑤斎朕D(zhuǎn)化為自己的代碼,”德阿納說。但細(xì)節(jié)仍然模糊不清。事實(shí)上,他希望AI研究者在解決人工神經(jīng)網(wǎng)絡(luò)的類似問題時(shí),能夠?yàn)樯窠?jīng)科學(xué)提供線索?!肮ぷ骺臻g更像是一個(gè)想法,甚至還談不上是一個(gè)理論。我們正在試圖將其變成理論,但它仍然有很多未知。而工程師們有非凡的才能將其變成一個(gè)工作系統(tǒng)。”德阿納說。
2021年,位于日本東京的AI公司Araya的創(chuàng)始人、神經(jīng)科學(xué)家金井良太與跨學(xué)科進(jìn)入AI領(lǐng)域的神經(jīng)科學(xué)家、法國圖盧茲大學(xué)的呂芬·旺呂朗提出了一種讓人工神經(jīng)網(wǎng)絡(luò)完成翻譯的新方法。他們從類似谷歌翻譯這樣的語言翻譯系統(tǒng)中獲得了靈感,這些系統(tǒng)是迄今為止AI取得的令人印象深刻的成就之一。它們無需外部幫助就能完成自己的工作。例如,我們并不需要告訴這些系統(tǒng)英語中的“l(fā)ove”和法語中的“amour”具有相同的含義;相反,它們獨(dú)立學(xué)習(xí)英語和法語,然后通過它們所學(xué)到的語言來推斷出哪個(gè)單詞在法語中扮演著與“l(fā)ove”在英語中相同的角色。
假設(shè)你分別用英語和法語訓(xùn)練了兩個(gè)神經(jīng)網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)都掌握各自語言的結(jié)構(gòu)。在網(wǎng)絡(luò)內(nèi)部,一個(gè)被稱為潛空間的內(nèi)在表征,即“詞云”將被構(gòu)建出來。在詞云里,意義相似的單詞聚集在一起,而不相關(guān)的單詞則各自分開,從而形成該語言中所有單詞的關(guān)聯(lián)圖。顯然,詞云具有獨(dú)特的形狀,但是對于不同的語言來說,詞云形狀卻是相同的,因?yàn)槎急挥脕砻枋鱿嗤氖澜?。因此,你需要做的只是將英語和法語的詞云旋轉(zhuǎn)直到它們對齊。此時(shí),你會(huì)發(fā)現(xiàn)“l(fā)ove”與“amour”對齊。金井說:“我們不需要詞典,僅僅只需要找到正確的旋轉(zhuǎn)方式來對齊所有點(diǎn),就可以得到每種語言的所有單詞在潛空間中的位置?!?/span>
因?yàn)檫@個(gè)流程不僅適用于單詞,也可以應(yīng)用于整個(gè)段落,所以它可以處理在意義上有細(xì)微差異,在另一種語言中沒有直接對應(yīng)詞的單詞。由此,它可以翻譯像英語與漢語這樣毫無關(guān)聯(lián)的語言,甚至可被用于動(dòng)物之間的交流。
旺呂朗和金井認(rèn)為,流程不僅可以用于語言之間的翻譯,還可以在不同的感官和描述模態(tài)之間進(jìn)行翻譯?!巴ㄟ^獨(dú)立訓(xùn)練圖像處理系統(tǒng)和語言處理系統(tǒng),然后通過對齊它們的潛空間來將它們?nèi)诤显谝黄?,”金井解釋道。與語言類似,因?yàn)閳D像系統(tǒng)和語言系統(tǒng)基本上都指向相同的世界,所以跨模態(tài)的翻譯成為可能。而這一洞察正是德阿納所希望的:AI研究為揭示大腦的工作原理提供線索。“神經(jīng)科學(xué)家從未設(shè)想過對齊潛空間的可能性,”金井說。
要了解這些原理如何被付諸實(shí)踐,金井與現(xiàn)在在微軟工作的阿瑟·尤利亞尼,以及Araya的笹井俊太郎一起,研究了谷歌DeepMind在2021年發(fā)布的感知者模型。該模型旨在將文本、圖像、音頻和其他模態(tài)的數(shù)據(jù)融合到一個(gè)共同的潛空間中。2022年,谷歌將其整合到了一個(gè)自動(dòng)生成短視頻內(nèi)容描述的系統(tǒng)中。Araya的團(tuán)隊(duì)進(jìn)行了一系列實(shí)驗(yàn),探究了感知者模型的工作原理。他們發(fā)現(xiàn),雖然感知者并沒有專門將全局工作空間設(shè)計(jì)進(jìn)系統(tǒng),但它具有全局工作空間的特征:獨(dú)立的模塊、在模塊中進(jìn)行選擇的程序,以及工作記憶,即工作空間本身。
一個(gè)特別值得關(guān)注的、實(shí)現(xiàn)了類似工作空間功能的程序,是由位于捷克布拉格的AI公司GoodAI制作的游戲AI People。這個(gè)即將發(fā)布的游戲類似《模擬人生》,我去年夏天看到的版本,將舞臺(tái)設(shè)置在了一個(gè)充滿囚犯、腐敗看守和認(rèn)真的心理醫(yī)生的監(jiān)獄里,但該公司也計(jì)劃設(shè)計(jì)更平和的場景。該游戲使用GPT作為游戲角色的大腦。GPT不僅控制它們的對話,還控制它們的行為和情感,使其具有一定的心理活動(dòng);同時(shí),系統(tǒng)會(huì)追蹤它們是否生氣、悲傷或焦慮,并據(jù)此為其選擇對應(yīng)的行為。開發(fā)者添加了其他模塊,如表現(xiàn)為短時(shí)記憶形式的全局工作空間,從而賦予游戲角色前后一致的心理并讓它們在游戲環(huán)境中行動(dòng)。
5、提取抽象表征
AI領(lǐng)域另一個(gè)可能的重大突破來自me[x]ta的研究員楊立昆。盡管他沒有直接引用全局工作空間作為他的靈感來源,在挑戰(zhàn)生成模型——GPT中的“G”的霸權(quán)時(shí),他通過自己的方式也獲得了與GWT類似的想法?!拔曳磳υ诋?dāng)前AI或機(jī)器學(xué)習(xí)社區(qū)非常流行的一系列觀念,”楊立昆說,“我在跟所有人說:放棄生成模型。”
生成式神經(jīng)網(wǎng)絡(luò)之所以這樣命名,是因?yàn)樗鼈兓谟?xùn)練內(nèi)容來生成新的文本和圖像。為了實(shí)現(xiàn)這個(gè)目標(biāo),神經(jīng)網(wǎng)絡(luò)必須對細(xì)節(jié)非常在意:它們必須知道如何在句子中拼寫每個(gè)單詞,如何在圖像中放置每個(gè)像素。但是,智能的本質(zhì)其實(shí)是選擇性忽略細(xì)節(jié)。由此,楊立昆主張研究者們重新回到現(xiàn)在已不那么時(shí)髦的“辨別式”神經(jīng)網(wǎng)絡(luò)技術(shù),例如那些通過感知輸入之間的差異來識(shí)別圖像的神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)不會(huì)自行構(gòu)建圖像,而只是處理現(xiàn)有圖像并分配標(biāo)簽。
基于此,楊立昆創(chuàng)建了一種特殊的訓(xùn)練方案,使辨別式網(wǎng)絡(luò)能夠提取文本、圖像和其他模態(tài)數(shù)據(jù)的關(guān)鍵特征。它可能無法自動(dòng)完成句子,但它可以創(chuàng)建類似于我們大腦產(chǎn)生的抽象表征,這正是楊立昆所希望的。例如,如果輸入信號(hào)是一輛汽車在道路上行駛的視頻,由此產(chǎn)生的抽象表征應(yīng)該捕捉到汽車的品牌、型號(hào)、顏色、位置和速度,同時(shí)省略道路表面的凹坑、水坑上的漣漪、路邊草葉上的光芒——除非我們特別關(guān)注它們,否則我們的大腦會(huì)自動(dòng)忽略這些無關(guān)緊要的細(xì)節(jié)?!八心切o關(guān)緊要的細(xì)節(jié)都被消除了,”楊立昆解釋說。
這些被精簡的表征本身并沒有用處,但它們使得AGI必需的一系列認(rèn)知功能成為可能。楊立昆將辨別式網(wǎng)絡(luò)嵌入到一個(gè)更大的系統(tǒng)中,使其成為類腦架構(gòu)的一個(gè)模塊。該架構(gòu)包含GWT的關(guān)鍵特征,例如短時(shí)記憶和一個(gè)用來協(xié)調(diào)模塊并確定工作流程的“配置器”?!拔沂艿搅诵睦韺W(xué)底層知識(shí)的極大啟發(fā),”楊立昆說。正如人類的大腦可以進(jìn)行思想實(shí)驗(yàn),想象不同情況下人會(huì)有什么不同的感受一樣,配置器也會(huì)多次運(yùn)行辨別式網(wǎng)絡(luò),羅列出一系列可能的行動(dòng),以找到能實(shí)現(xiàn)期望結(jié)果的優(yōu)方案。
楊立昆說,他更傾向于避免給“什么是意識(shí)”下結(jié)論,但他提出了一個(gè)他稱之為意識(shí)的“通俗理論”:配置器的工作即意識(shí),它所扮演的角色,類似于巴爾斯理論中的全局工作空間。
6、尋找真正的智能
如果研究者成功在AI系統(tǒng)中構(gòu)建了真正的全局工作空間,那么這是否會(huì)使AI具有意識(shí)?德阿納對此持肯定態(tài)度,特別是當(dāng)GWT結(jié)合了自我監(jiān)督能力的時(shí)候。但巴爾斯卻不這么認(rèn)為,部分原因是他對自己的理論仍然不完全信服:“我對GWT是否真的那么好,一直持懷疑態(tài)度?!痹谒磥?,意識(shí)是生物特有的功能,它僅僅存在于具有特定生物構(gòu)造的機(jī)體之中。富蘭克林在幾年前接受我的采訪時(shí)表達(dá)了類似的懷疑。他認(rèn)為,全局工作空間是自然演化為滿足身體的需要而給出的答案。大腦依靠意識(shí)從經(jīng)驗(yàn)中學(xué)習(xí)以迅速解決生存的復(fù)雜問題,但是,這種能力與AI通常需要應(yīng)對的問題類型并無關(guān)系?!八仨毷且粋€(gè)擁有真正心靈和控制結(jié)構(gòu)的自主代理?!彼嬖V我,“那個(gè)代理必須經(jīng)歷生活本身——這并不意味著它不能是一個(gè)機(jī)器人,但它必須經(jīng)歷成長,而不是全知全能地降臨到這個(gè)世界?!?/span>
英國薩塞克斯大學(xué)的神經(jīng)科學(xué)家阿尼爾·塞思也有類似的觀點(diǎn)?!耙庾R(shí)不僅僅關(guān)乎聰明,”他說,“活著也同樣重要。無論通用人工智能多么聰明,但如果它們不是活的,就不太可能有意識(shí)?!?/span>
塞思更傾向于支持被稱為預(yù)測處理(也稱作預(yù)測編碼)的意識(shí)理論。這個(gè)理論強(qiáng)調(diào)意識(shí)試圖通過預(yù)測即將發(fā)生的事情,為未來做準(zhǔn)備?!袄斫庥幸庾R(shí)的自我,應(yīng)該從理解控制身體的預(yù)測模型為起點(diǎn),”他說。塞思主要關(guān)注意識(shí)的信息整合理論,這是一個(gè)和GWT相競爭的、關(guān)于意識(shí)的主流理論。這一理論未將意識(shí)與大腦的功能聯(lián)系起來,而是將其與復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)聯(lián)系起來,即具有同樣復(fù)雜結(jié)構(gòu)的機(jī)器也能產(chǎn)生意識(shí)。根據(jù)這一理論,意識(shí)并非智能不可或缺的組成部分,而是出于提升生物效率的理由才出現(xiàn)。
AI是一個(gè)理念豐富的領(lǐng)域,工程師們已經(jīng)獲得了很多可以跟進(jìn)的線索,無需等待神經(jīng)科學(xué)的新發(fā)現(xiàn)。哥倫比亞大學(xué)的神經(jīng)科學(xué)家尼古勞斯·克里格斯科特說:“他們做得足夠好了!”但是,大腦仍然是通用智能的現(xiàn)實(shí)證據(jù),而且至少在目前,是AI研究者能擁有的佳模型?!叭祟惔竽X擁有一些工程尚未攻克的秘密,”克里格斯科特說。
在過去幾十年里,對AGI的孜孜不倦的探尋教會(huì)了我們很多關(guān)于自身智能的事情。現(xiàn)在我們認(rèn)識(shí)到,我們認(rèn)為簡單的任務(wù),如視覺信息加工,實(shí)際上需要海量的計(jì)算;而我們認(rèn)為困難的事情,如數(shù)學(xué)和國際象棋,實(shí)際上很容易。我們還認(rèn)識(shí)到,大腦幾乎不需要任何“預(yù)裝”知識(shí)。它幾乎可以通過體驗(yàn)學(xué)習(xí)到它所需要知道的一切?,F(xiàn)在,通過了解模塊化的重要性,我們正在逐漸明白一個(gè)古老的智慧:沒有任何一個(gè)東西叫做智能。它只是一套裝滿各種能力的工具箱而已——從抽象思維到導(dǎo)航,從適應(yīng)復(fù)雜的社會(huì)到對視覺和聲音的處理。正如戈策爾所說的那樣,通過混合和匹配這些多樣化的技能,我們的大腦可以在我們從未遇到過的領(lǐng)域取得勝利。我們創(chuàng)造了新的音樂類型,解決了前一代人無法想象的科學(xué)謎題。如今,我們踏入了一個(gè)全新的未知之地——也許有朝一日,我們的AI表親會(huì)與我們互相協(xié)助,共同前進(jìn)。