人工智能恐慌與科技焦慮管理
近期,人工智能帶給社會普遍的焦慮。一方面,我們不清楚人工智能到底會在何種程度上影響人類生活。持有極端看法的人認(rèn)為:人工智能正在“人化”,在建立“世界模型”,未來很可能替代人類,甚至與人類為敵。更多的人覺得,至少在參與戰(zhàn)爭、取締人類多重職業(yè)等方面,大模型引導(dǎo)的人工智能熱潮會起到巨大作用。
面對這些緊張和焦慮,首先應(yīng)該肯定,一個社會對科技進(jìn)步的預(yù)警是必要的。沒有這種預(yù)警,人類就沒有能力做好應(yīng)對未來的準(zhǔn)備。從歷史來看,中國恰恰是在國際局勢重大變動的時代保持了對科技進(jìn)步的預(yù)警,才在“兩彈一星”、信息技術(shù)、航天、生命科學(xué)等方面趕上前沿水平,讓我們免于受到更大威脅。如果沒有全社會對第三次浪潮的積極反應(yīng),我們不會有21世紀(jì)今天的工業(yè)和科技水平。但另一方面也要看到,過度焦慮對個體和群體以及整個社會是消極的。個體會感到惶恐,失去對未來的希望;作為整體的國家、民族和社會也將感到巨大的焦慮和威脅。
這一切說明我們?nèi)狈萍冀箲]的整體認(rèn)知。沒有這種認(rèn)知,就做不到管理和消解焦慮,更做不到化被動為主動。因此,建立科技焦慮的測評和管理機(jī)制就顯得特別重要。通過各種渠道傳播正確的科技信息,讓公眾了解每一項(xiàng)科技進(jìn)步的真正含義,了解當(dāng)前的世界前沿發(fā)展水平,是避免造成誤解和加重焦慮的重要方法。
以近期發(fā)生的一系列人工智能技術(shù)新品為例。我認(rèn)為,公眾必須對人工智能技術(shù)有充分的認(rèn)知。首先,人工智能當(dāng)前的發(fā)展,特別是基于神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展,其根基還是20世紀(jì)60年代生物學(xué)家休博爾和維瑟爾對貓的視覺皮層神經(jīng)細(xì)胞層級結(jié)構(gòu)的分析。僅僅對大腦一個小小部分的工作方式的了解,就構(gòu)造了今天的卷積神經(jīng)網(wǎng)絡(luò)的基底。其次,我們還要理解,自組織系統(tǒng)在超越一定規(guī)模之后所發(fā)生的整體展現(xiàn)構(gòu)成它的個體不具備的新特性的所謂“涌現(xiàn)現(xiàn)象”。這種功能導(dǎo)致了Open AI所創(chuàng)造的人工智能的誕生。上述兩個核心的科技并不復(fù)雜,而且已經(jīng)出現(xiàn)很久。前者暗示我們,如果對動物神經(jīng)系統(tǒng)做更多的研究分析,更多種類的不同心理活動的模擬完全可以被不斷發(fā)現(xiàn)。而自組織涌現(xiàn)的出現(xiàn),則讓人們相信,加大系統(tǒng)的規(guī)模,可能會導(dǎo)致一些過去無法想象的事件。這讓更多人試圖在各類研發(fā)中創(chuàng)造大的系統(tǒng),期盼大的規(guī)模導(dǎo)致的自組織現(xiàn)象的發(fā)生。
但這兩個簡單的基礎(chǔ)也讓我們看到,當(dāng)前的人工智能的水平和能力其實(shí)是有限的。充其量,當(dāng)前的人工智能是一種生物體智力的小部分的復(fù)制與有限的增長。這種增長基于人類提供的材料,也就是語言或視覺信息,人工智能開始反射性地提供了一個屬于自己的認(rèn)知世界。這就像身邊有個孩子,大腦非常簡單,但非常龐大,能用這種大規(guī)模的腦疊加,苦干之后創(chuàng)造一些與智力相關(guān)的成果。這種成果類似我們過去表揚(yáng)的吃苦耐勞的人。但這些人是否能創(chuàng)造真正具有超越人類認(rèn)知水平的成果,至少在這個層次上看不出來。因此,我認(rèn)為當(dāng)前的人工智能發(fā)展?fàn)顟B(tài)是非常好的。就像辦公室來了一個智力高超的同事,這個同事具有我們的認(rèn)知方法和苦干精神,能協(xié)助我們做好許多智力工作。面對這樣的人,不用恐懼,反而應(yīng)該歡迎他的到來。
從心理學(xué)角度看,智力跟驅(qū)動力、情感、自我意識、個性等是完全不同的心理活動。應(yīng)當(dāng)慶幸當(dāng)前的人工智能沒有被賦予人類的多種心理功能。但我們也必須警惕科學(xué)工作者對這種機(jī)器疊加上其它的功能,讓它們具有驅(qū)動力、自我意識、情感和個性方面的追求。這些才是真正把人類送到不穩(wěn)定狀態(tài)的真正禍根。換言之,對機(jī)器的“全人培養(yǎng)”,是一條人類跟機(jī)器關(guān)系的紅線。全人培養(yǎng)的來臨是葬送人類命運(yùn)的最終關(guān)口。
所以,站在人類中心主義立場,一個高智商的機(jī)器,其智力能力不用在驅(qū)動從事某種自主活動,都是不可怕的。它所造成的人類生活的改變,都是可以接受的。當(dāng)前包括Sora在內(nèi)的生成式人工智能的發(fā)展,都沒有在基礎(chǔ)上動搖人類社會基礎(chǔ),完全可以不用擔(dān)心。反而是要通過對焦慮的管理,讓社會回到穩(wěn)定狀態(tài)。
所以我認(rèn)為,對當(dāng)前人工智能的焦慮,重點(diǎn)應(yīng)該放在關(guān)注人類對腦認(rèn)知真實(shí)過程的揭示上,因?yàn)檫@種揭示可能制造出更多模仿人類心理的機(jī)器。超越智能方向的模仿,值得緊密關(guān)注。
其次,大模型對大算力的耗費(fèi)導(dǎo)致的能源耗竭。而地球上只有有限的能源。所以,今天的這種大模型并非真正合適的人工智能形式。在未來,朝向開發(fā)更類似動物大腦的小能源消耗智能機(jī)器的目標(biāo)前進(jìn)是減輕人類負(fù)擔(dān)的形式之一。
第三,科技焦慮在人群中導(dǎo)致惶恐情緒,對已經(jīng)產(chǎn)生的民族自信起到破壞作用。而解除焦慮的方法之一,就是讓大家看到真實(shí)的自我和世界。免除過高的期待同時抱有對發(fā)展的信心和渴望。
歷史的經(jīng)驗(yàn)是未來前行的保障。在一定限度的焦慮下推動符合人類道德的技術(shù)突破,是我們對社會負(fù)有的責(zé)任,也是人類未來發(fā)展的立足點(diǎn)和對科技與人類關(guān)系的正確態(tài)度。
(作者系南方科技大學(xué)科學(xué)與人類想象力研究中心主任)