原標(biāo)題:如何看待霍金對(duì)人工智能的警告
今年3月8日,著名物理學(xué)家史蒂芬·霍金向英國(guó)《獨(dú)立報(bào)》表示,人類必須建立有效機(jī)制盡早識(shí)別威脅所在,防止新科技(人工智能)對(duì)人類帶來(lái)的威脅進(jìn)一步上升。霍金警告,未來(lái)人工智能可能會(huì)以生化戰(zhàn)爭(zhēng)或核子戰(zhàn)爭(zhēng)的方式摧毀人類。其實(shí),早在2015年9月,霍金就發(fā)出過(guò)類似的警告:聰明能干的人工智能會(huì)讓人類滅亡。霍金表示:一個(gè)超級(jí)聰明的人工智能可以非常好地實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)沒(méi)有與我們?nèi)祟愐恢,我們(nèi)祟惥吐闊┝恕?/p>
我們?nèi)绾蝸?lái)對(duì)待霍金的警告呢?首先,霍金本人也是人工智能技術(shù)的支持者,霍金認(rèn)為,如今人工智能似乎已經(jīng)滲透到各個(gè)領(lǐng)域。人工智能甚至可幫助根除長(zhǎng)期存在的社會(huì)挑戰(zhàn),比如疾病和貧困等。
人工智能技術(shù)是當(dāng)今新技術(shù)革命的領(lǐng)頭羊。事實(shí)上,人工智能技術(shù)的發(fā)展已歷經(jīng)三次浪潮。第一次浪潮以“手工知識(shí)”為特征,典型范例如智能手機(jī)應(yīng)用程序等。第二次浪潮以“統(tǒng)計(jì)學(xué)習(xí)”為特征,典型范例如人工神經(jīng)網(wǎng)絡(luò)系統(tǒng),并在無(wú)人駕駛汽車等領(lǐng)域取得進(jìn)展。雖然這些人工智能技術(shù),對(duì)明確的問(wèn)題有較強(qiáng)的推理和判斷能力,但不具備學(xué)習(xí)能力。第三次浪潮則以“適應(yīng)環(huán)境”為特征,人工智能能夠理解環(huán)境并發(fā)現(xiàn)邏輯規(guī)則,從而進(jìn)行自我訓(xùn)練并建立自身的決策流程。今年年初,谷歌AlphaGO的升級(jí)版Master以 60∶0的戰(zhàn)績(jī),擊潰當(dāng)世所有圍棋頂級(jí)高手;就在5月25日,AlphaGO又接連兩局擊敗中國(guó)圍棋職業(yè)九段棋手柯潔;我以為,這些都是人工智能第三次浪潮的標(biāo)志。
其次,人工智能技術(shù)也是一把雙刃劍。一方面,借助人工智能技術(shù)實(shí)現(xiàn)自動(dòng)化,將極大提高生產(chǎn)率,節(jié)省勞動(dòng)成本;通過(guò)優(yōu)化行業(yè)現(xiàn)有產(chǎn)品和服務(wù),開(kāi)拓更廣闊的市場(chǎng)空間。正由于人工智能對(duì)社會(huì)經(jīng)濟(jì)無(wú)可替代的重要推動(dòng)作用,在我國(guó)兩會(huì)上已將人工智能寫(xiě)進(jìn)了政府工作報(bào)告。
另一方面,人工智能技術(shù)對(duì)社會(huì)也帶來(lái)了近期和遠(yuǎn)期的風(fēng)險(xiǎn)。在不遠(yuǎn)的將來(lái),那些重復(fù)、耗時(shí)、乏味的工作;在快速變化的復(fù)雜環(huán)境中進(jìn)行的工作以及超出人類極限的工作,都有可能被人工智能系統(tǒng)所代替,從而沖擊勞動(dòng)力市場(chǎng)。可以預(yù)測(cè),由于人工智能的發(fā)展,多數(shù)人的智能將低于或接近人工智能的水平,如果沒(méi)有政策的有效控制,財(cái)富就會(huì)集中到少數(shù)智能超過(guò)人工智能的人手中,這將進(jìn)一步擴(kuò)大社會(huì)的貧富差別,引發(fā)社會(huì)的撕裂。
至于說(shuō)到霍金警告的人工智能引發(fā)的人類生存風(fēng)險(xiǎn),即人工智能將來(lái)會(huì)從整體上超越人類智能,目前對(duì)此在認(rèn)識(shí)上還有分歧。許多自然科學(xué)家認(rèn)為,目前人工智能離上述水平還很遠(yuǎn)很遠(yuǎn),其危險(xiǎn)遠(yuǎn)不足慮;而某些社會(huì)科學(xué)家卻有擔(dān)憂,認(rèn)為隨著技術(shù)變革的深入,人工智能所引發(fā)的鏈?zhǔn)椒磻?yīng),就會(huì)出現(xiàn)無(wú)法控制的局面。上述認(rèn)識(shí)的差異,正好體現(xiàn)了人類對(duì)智能認(rèn)識(shí)的多樣性。從這個(gè)角度看,科學(xué)家全面認(rèn)識(shí)人類智能,并將其復(fù)現(xiàn),只是時(shí)間問(wèn)題。鑒于人工智能有可能超越人類智能,以及由此產(chǎn)生十分嚴(yán)重的后果,再加上科學(xué)技術(shù)發(fā)展的內(nèi)在不確定性,就充分說(shuō)明了研究人工智能安全問(wèn)題的必要性。
早在1950年出版的美國(guó)著名科幻小說(shuō)家艾薩克·阿西莫夫撰寫(xiě)的《我,機(jī)器人》小說(shuō)中,就提出了著名的“機(jī)器人三大定律”:第一定律,機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手旁觀;第二定律,機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;第三定律,機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。此后,這“三大定律”不斷激發(fā)出對(duì)于人工智能安全性的新思考。由于人工智能最終必將會(huì)具備自主意識(shí),到那時(shí)人類與人工智能系統(tǒng)之間的關(guān)系,必須服從普適、可靠的準(zhǔn)則。特別是在軍事領(lǐng)域要更加小心,否則極有可能出現(xiàn)科幻電影中描述的人機(jī)大戰(zhàn)的場(chǎng)景。
因此,我們?cè)诎l(fā)展人工智能系統(tǒng)的同時(shí),還要確保其在預(yù)先制定的相關(guān)準(zhǔn)則下進(jìn)行工作,以防止其出現(xiàn)越規(guī)行為。
[責(zé)任編輯:郭碧娟]
The requested resource has been assigned a new permanent URI.