機(jī)器之心編譯出品
作者: Davis(紐約大學(xué)計(jì)算機(jī)科學(xué)系)
機(jī)器之心翻譯出品
參與成員:小二,趙賽坡,
汪汪,20e,Chen
本文為對(duì)Nick《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》(: Paths, , , 牛津大學(xué)出版社, 2013)的書評(píng) 。
尼克·博斯特羅姆(Nick )在《超級(jí)智能》()一書中提出:人類智能水平創(chuàng)造出的人工智能(AI)將很快被一個(gè)全能的超級(jí)智能的存在所替代,這可能給人類帶來災(zāi)難性的后果 。他認(rèn)為,人類一個(gè)首要任務(wù)是解決怎么向超級(jí)智能滲透道德感 。然而,他認(rèn)為這項(xiàng)任務(wù)很困難 。我討論了他分析中的一些缺陷,尤其是在人工智能研究中執(zhí)行倫理行為是一個(gè)非常困難的問題這種觀點(diǎn) 。
Nick在他的新書《超級(jí)智能》中說到,遲早有一天AI很可能會(huì)以某種方式達(dá)到和人類相近的智力 。繼而很快——可能幾年間 , 極有可能在幾個(gè)小時(shí)或者幾分鐘之內(nèi)——AI將會(huì)達(dá)到遠(yuǎn)超人類的智力水平,帶來AI取得地球社會(huì)絕對(duì)控制權(quán)的嚴(yán)重威脅 , 給人類生活帶來噩夢(mèng)般的災(zāi)難性改變 。博斯特羅姆詳細(xì)的描述了各式恐怖的場(chǎng)景以及它們成真的方式 。他還預(yù)測(cè)AI在那時(shí)會(huì)轉(zhuǎn)向星際穿越,殖民整個(gè)銀河系甚至以外的空間 。因此,他強(qiáng)調(diào)了如何避免讓這樣的后果成為現(xiàn)實(shí)是人類首要思考的問題 。
AI甚至不需要任何惡意或者自我膨脹,也許它只是在嘗試證明黎曼假設(shè)( ) 。但是執(zhí)著的追求目標(biāo)會(huì)使得它收集所有資源,首先在地球上,然后在銀河中 , 去建造額外的計(jì)算能力以實(shí)現(xiàn)那個(gè)目標(biāo) 。或者它可能被命令去制作回形針,在這種情況下,它會(huì)把整個(gè)銀河系做成回形針 。不要以為你可以通過命令它只制作一百萬個(gè)回形針來逃過一劫 。如果它聽到那個(gè)命令 , 它會(huì)制作那一百萬個(gè)回形針,然后它會(huì)耗盡全宇宙的資源來檢查和復(fù)查它是不是數(shù)錯(cuò)了 。
Nick
沒有說他預(yù)計(jì)什么時(shí)候這些會(huì)發(fā)生,并且作為一名堅(jiān)決的貝葉斯決策論者,他也沒有給出一個(gè)概率 。然而,在這本書中他暗示這個(gè)概率不會(huì)低于1/2 。
這本書的前三章(副標(biāo)題的「路徑」)非常棒 。他調(diào)查了幾個(gè)產(chǎn)生超人智能( )的可能:AI、人類基因操縱、腦機(jī)接口(brain- )以及大型網(wǎng)絡(luò)系統(tǒng) 。他關(guān)于技藝的狀況,挑戰(zhàn)以及以及和每個(gè)方向的挑戰(zhàn)與前景的談?wù)摲浅O鑼?shí)并切合 , 盡管不會(huì)每個(gè)人都同意他的判斷,但總的來說,這是我見過的關(guān)于這個(gè)主題最好的調(diào)查文獻(xiàn) 。
盡管如此 , 對(duì)于我來說 , 這本大部頭的「危險(xiǎn)」和「策略」部分的討論卻有著嚴(yán)重的缺陷 。
這種假設(shè)認(rèn)為,所謂的智能是一種被認(rèn)可、單一價(jià)值觀的無限數(shù)量 。描述了不同的方程式,并給出了一些解決思路 。當(dāng)然 , 如果你要就這個(gè)問題詢問,他或許會(huì)說這是為了進(jìn)行分析而簡(jiǎn)化的假設(shè) 。而如果你仔細(xì)思考這個(gè)論證人工智能戰(zhàn)爭(zhēng) 漢化,你會(huì)發(fā)現(xiàn)它太依賴于理想化的想法,當(dāng)拋開理想主義的包裹之后,整個(gè)論證的核心部分變得非常脆弱 。比如,預(yù)測(cè)人工智能(human )向超人智能( )的過程將會(huì)很快到來 。
的確 , 有相當(dāng)數(shù)量的智能能夠佐證這個(gè)描述,比如處理速度、大腦的大小和各種內(nèi)存的大小 。但是,我們卻不知道這些所謂的智能在性質(zhì)上的意義 , 也不知道不同動(dòng)物之間大腦大小與智能水平的關(guān)系 , 因?yàn)槲覀儧]有衡量所謂智能的標(biāo)準(zhǔn)和定義 。而且這種差異與人類不同人智能差別的關(guān)系也不大 。援引的話指出人工智能戰(zhàn)爭(zhēng) 漢化,科學(xué)家愛因斯坦與一個(gè)鄉(xiāng)村農(nóng)夫智能水平的差異遠(yuǎn)不如一個(gè)人與一只老鼠的差異那么大 , 這句話很樸實(shí),但也很重要 。但這并不能證明 , 老鼠追上人類要比村夫趕上愛因斯坦花費(fèi)更多時(shí)間 。有一件事很確定,我們對(duì)于讓愛因斯坦如此天才的認(rèn)知過程知之甚少 。強(qiáng)調(diào)一旦我們擁有了一個(gè)與普通人智能水平相當(dāng)?shù)臋C(jī)器 , 那么你就能通過各個(gè)手段升級(jí)為超級(jí)智能 , 比如讓機(jī)器更大更快 。如果你擁有兩臺(tái)機(jī)器 , A和B,B運(yùn)行速度比A快10倍,那么A就可以做到任何B可以做到的事情,只要你愿意等待十倍的時(shí)間 。
這個(gè)假設(shè)認(rèn)為,智能上的提升將不可避免地提升能力 。表示,大腦尺寸和復(fù)雜程度的相對(duì)較小的增加會(huì)顯著地反映在身體能力上 。但是他忽略了一個(gè)事實(shí):人類大腦更大規(guī)模的演化并未讓人類身體發(fā)生多大變化 。他提到計(jì)算機(jī)之于人類就如同人類之于老鼠,而非愛因斯坦之于我們這樣的普通人 。那如果把這個(gè)類比換成大象和老鼠呢?
這個(gè)假設(shè)同時(shí)認(rèn)為更大智能的提升會(huì)帶來全能控制力 。在的概述中 , 超級(jí)智能可以在它的「道德」之下做任何事情,而沒有限制 。短期來看,超級(jí)智能會(huì)發(fā)展出科技上的創(chuàng)新、社交功能、控制人類等等,比之前存在的相對(duì)更加先進(jìn) 。它可以輕易拒絕8,000,000個(gè)反對(duì)奴役與殺戮的人類,并且比他們都要聰明 。
如果超級(jí)智能表現(xiàn)出色 , 所宣揚(yáng)的會(huì)帶來巨大利好的救世宣言就會(huì)不證自明 。他寫道,如果超級(jí)智能得到發(fā)展 , 消除絕大多數(shù)自然災(zāi)害的措施也相應(yīng)會(huì)得到發(fā)展,或者(通過太空移民的方式)使災(zāi)難對(duì)人類失去影響力,那么來自諸如行星撞擊、超級(jí)火山、流行疾病的危害將不復(fù)存在;同樣,超級(jí)智能也會(huì)建立自統(tǒng)治 , 以自身統(tǒng)御自身( 稱之為「」) , 這將徹底消除來自戰(zhàn)爭(zhēng)、科技競(jìng)賽、無休止的競(jìng)爭(zhēng)、進(jìn)化、人類悲劇的危險(xiǎn) 。
在別處,也同樣建議哲學(xué)家停止思考哲學(xué)的傳統(tǒng)問題,取而代之是思考如何向AI們灌輸倫理道德 , 這是因?yàn)樵谄淇磥沓?jí)智能很快就會(huì)解決所有的哲學(xué)傳統(tǒng)問題 。對(duì)我來講,這個(gè)預(yù)言的可能性僅僅比世界末日稍微小一點(diǎn),但也僅是那么一點(diǎn) 。
盡管發(fā)展智能或多或少地容易起來,對(duì)計(jì)算機(jī)賦予道德觀依然相當(dāng)困難,因而這仍是一個(gè)未經(jīng)證實(shí)的信念 。
以一種與發(fā)生于上世紀(jì)60年代的機(jī)器智能討論相似的語調(diào)來夸大對(duì)計(jì)算機(jī)賦予道德的問題;當(dāng)我們僅能搗騰寄存器的時(shí)候的時(shí)候,你怎么能讓它智能呢?
在 AI的運(yùn)行語言中,倫理的定義必須重新起底 , 并且像原始的機(jī)器操作員及地址一樣最終指向個(gè)體記憶寄存器的內(nèi)容 。如果從這個(gè)角度考慮問題,你就會(huì)開始理解程序員在這項(xiàng)工作中的困難 。
接下來,他繼續(xù)寫了在復(fù)雜計(jì)算機(jī)視覺( )層面上來看,賦予道德是幾乎是一件毫無希望的事;很顯然,沒有意識(shí)到計(jì)算機(jī)視覺本身就是一個(gè)核心AI問題,而他假設(shè)這可以被解決 。他認(rèn)為在 AI系統(tǒng)中對(duì)計(jì)算機(jī)賦予道德是一項(xiàng)值得挑戰(zhàn)的研究,這項(xiàng)光榮使命將落在下一代最杰出的數(shù)學(xué)天才身上 。
相反地,我認(rèn)為對(duì)計(jì)算機(jī)進(jìn)行道德賦能(就像現(xiàn)代人所理解的那種道德觀念)是AI發(fā)展面臨的簡(jiǎn)單問題中的一個(gè) 。不僅如此,無論對(duì)人類認(rèn)知來講(例如理解敘事體),還是對(duì)賦予超級(jí)智能的特性來講,給計(jì)算機(jī)賦予道德都是必不可少的一部分 。例如,提及 AI的“社會(huì)操控超能()”,但是如果 AI成了一名社會(huì)操控者,其需要對(duì)人類的道德有著良好的理解 。如果 AI完全不具有倫理觀念,這將成為其操控社會(huì)的一個(gè)巨大缺點(diǎn),舉例來講 , 如同《指環(huán)王》和《哈利波特》的核心思想:與人打交道卻不理解其倫理原則是一種戰(zhàn)略錯(cuò)誤 。如果 AI真的理解人類的倫理道德,那么它就很難不看出為何一定要遵循后者的必要性了 。
為了給超級(jí)智能AI制定一個(gè)必須遵守的、可操作的最低道德標(biāo)準(zhǔn) , 我建議采用以下方法 。你指定一批受人敬仰但已過世的人(指定已經(jīng)過世的人是因?yàn)楦鶕?jù)的預(yù)測(cè)AI更偏好操縱活人) 。AI已經(jīng)在網(wǎng)上熟悉了他們的一切事情 。然后你命令A(yù)I:「不要做這些人會(huì)嚴(yán)肅反對(duì)的任何事 。」
這種方法有幾個(gè)優(yōu)勢(shì):
當(dāng)然,在AI擁有非常強(qiáng)大的理解力之前,這個(gè)實(shí)驗(yàn)是不可能實(shí)施的,所有的解決辦法也是如此 。需要澄清的是 , 我不是說日常決策的道德考慮也要使用這個(gè)標(biāo)準(zhǔn),我也并沒有聲稱這個(gè)想法對(duì)道德哲學(xué)有任何貢獻(xiàn) 。我相信這個(gè)標(biāo)準(zhǔn)作為道德的最低標(biāo)準(zhǔn)來說已經(jīng)足夠 。如果AI堅(jiān)持遵守這個(gè)標(biāo)準(zhǔn),它就不會(huì)消滅我們,也不會(huì)奴役我們 。
但這對(duì)來說似乎還不夠,因?yàn)樗⒉粷M足于人類目前的道德狀況 。他認(rèn)為,對(duì)AI來說 , 更重要的是運(yùn)用它的超級(jí)智能來尋找一個(gè)更加終極的道德規(guī)范 。在我看來,這種想法這不僅毫無必要 , 甚至可能是非常危險(xiǎn)的 。它毫無必要是因?yàn)椋灰狝I遵守我們的道德規(guī)范 , 至少它會(huì)避免做出道德上驚世駭俗的事情,它不會(huì)消滅和奴役我們 。這種想法也是危險(xiǎn)的,因?yàn)楹茈y肯定地說它不會(huì)導(dǎo)致我們反對(duì)的結(jié)果 。超級(jí)智能可能會(huì)像《格列佛游記》中的巨人國(guó)國(guó)王一樣會(huì)認(rèn)為我們?nèi)祟愂恰复笞匀粍?chuàng)造出來遍布地球表面的小害蟲中最可憎的一種」 , 出于好心,它可能會(huì)消滅我們,并用更有價(jià)值的物種來取而代之 。不管這個(gè)決定是多么明智 , 也不管它多么接近道德的終極標(biāo)準(zhǔn),我想我們都會(huì)毫不猶豫地反對(duì)它,并盡一切可能避免它的發(fā)生 。所以,如果一個(gè)超級(jí)智能所遵循的道德標(biāo)準(zhǔn)是2014年的,抑或是18世紀(jì)的(譯者注:《格列佛游記》寫于18世紀(jì)),而不是決定以自己的方式來思考問題,我會(huì)感到更加安全 。
最終,考慮了如何解決這個(gè)失控計(jì)算機(jī)的問題 。他提出,這個(gè)計(jì)算機(jī)可能棲身于一個(gè)模擬的宇宙中,如果是這樣,它會(huì)因?yàn)樽隽颂鄲鹤鲃《艿綑?quán)力者的懲罰 。當(dāng)然,這只是一種相信超然的上帝會(huì)懲罰罪惡的信仰,只不過改頭換面以吸引21世紀(jì)的哲學(xué)家 。它允許提出傳統(tǒng)異議:即便有人真的證明了上帝或模擬器的存在,不管從經(jīng)驗(yàn)上還是理論上說,都缺乏足夠的基礎(chǔ)讓人們相信那個(gè)「祂」會(huì)懲罰罪惡、獎(jiǎng)勵(lì)美德 。不管怎樣 , 都認(rèn)為,這場(chǎng)爭(zhēng)論也許能說服AI(至少注入一點(diǎn)懷疑的因素)以停止它那邪惡的計(jì)劃 。
當(dāng)然廣義的人工智能有潛在危險(xiǎn)的,一旦我們的科技造物達(dá)到一定程度智能,都理應(yīng)認(rèn)識(shí)到我們必須確保它不會(huì)失控 。那些可造成嚴(yán)重破壞的物理項(xiàng)目,比如控制電力網(wǎng)或者核彈,應(yīng)該采取傳統(tǒng)且熟知的編程 。
我們也要避免這些項(xiàng)目被人工智能的蓄意破壞,但這些項(xiàng)目本已需要防范來自人的威脅,而這些保護(hù)也并不困難 。任何人都不應(yīng)該給一個(gè)程序自由處理權(quán),允許其為達(dá)目的而動(dòng)用全世界所有的資源,也不應(yīng)放松對(duì)人工智能的監(jiān)管 , 為解決問題放任自流,不論人工智能是用于解決黎曼假設(shè)還是制作回形釘之類的看似平常的小事 。
任何機(jī)器都應(yīng)該有一個(gè)伸手可及的關(guān)閉鍵,而對(duì)于電腦或機(jī)器人這些可能會(huì)產(chǎn)生自我保護(hù)意識(shí)的機(jī)器,就需要設(shè)置一個(gè)它不能限制他人接觸的關(guān)閉鍵 。但是,電腦和機(jī)器人都是我們自己制造出來的 , 所以這一點(diǎn)很容易做到 。你只需要在機(jī)器人自己不能觸及的內(nèi)部放一個(gè)特殊裝置,當(dāng)接收到特定信號(hào)時(shí),就會(huì)自動(dòng)切斷機(jī)器人的電源,或者更極端點(diǎn),引發(fā)機(jī)器人自爆 。對(duì)電腦而言,如果電腦不知道這個(gè)炸彈是怎樣設(shè)置的或者怎樣會(huì)引爆 , 并確保它對(duì)此無能為力 。
當(dāng)然,即使是這樣,人們?nèi)詴?huì)提出異議,認(rèn)為人工智能的危險(xiǎn)性太大 , 我們應(yīng)該將危險(xiǎn)扼殺在搖籃里,不冒險(xiǎn)制造存在任何靠近人類智能潛能的電腦 。不怕一萬只怕萬一,或意外紕漏,或是某人欠缺考慮甚至居心叵測(cè) , 造就了一個(gè)沒有道德觀念并對(duì)自己的關(guān)閉鍵有自主權(quán)的超級(jí)智能體 。雖然如果在人工智能領(lǐng)域延續(xù)重組DNA研究領(lǐng)域的概論的精神,設(shè)定限制將會(huì)使人工智能的發(fā)展停滯不前在遠(yuǎn)未達(dá)到人類智能的水平,但我對(duì)此舉雙手贊成(幸運(yùn)的是,這些限制不必在AI研究與發(fā)展領(lǐng)域在可見的未來內(nèi)產(chǎn)生任何影響) 。但好好討論一下在這個(gè)方向上我們?cè)撟鲂┦裁催€是有必要的 。
如何防患于未然還需要進(jìn)一步推敲 。但是聲稱我們應(yīng)當(dāng)接受一個(gè)幾乎被無所不能的超智能體作為我們的未來,而我們的任務(wù)是想盡辦法幫助它逐漸摸索到他們自己的道德原則,這種道德原則可能遠(yuǎn)遠(yuǎn)超出我們的微不足道的理解能力 。著在我看來,這種意見對(duì)于我們的討論并無益處 。
【如何向未來的超級(jí)人工智能輸出人類道德觀?】本文到此結(jié)束,希望對(duì)大家有所幫助 。
- 如何規(guī)避在拼多多被拉黑的風(fēng)險(xiǎn)?小心這些行為可能導(dǎo)致賬號(hào)被封!
- 如何在京東湊單時(shí)享受兩件退一件的優(yōu)惠?
- 加入零售通,讓你的產(chǎn)品走向國(guó)際市場(chǎng)
- 拼多多限制:如何提升等級(jí)享受更多福利?
- 如何通過制作思維導(dǎo)圖 ?最好的學(xué)習(xí)方法是思維導(dǎo)圖
- ?腹式呼吸怎么練,如何進(jìn)行腹式呼吸訓(xùn)練?
- 一樓帶院子的別墅,要如何裝修設(shè)計(jì)得既實(shí)用又美觀?
- 清點(diǎn)那些高學(xué)費(fèi)的院校專業(yè)!沒錢支付學(xué)費(fèi)如何辦?
- 洗衣機(jī)單脫水這么簡(jiǎn)單的事 ?洗衣機(jī)單脫水如何用
- 假設(shè)未來,人工智能具有自主意識(shí)了,那人們會(huì)將它們作為合法公民嗎?
