熊一舟/編譯
◤人工智能的巨大突破將產生前所未有的機遇,但也將帶來難以預測的風險 。因此,各國政府、大學和私營企業亟需重視并共同努力應對智能技術可能帶來的不利后果 。
美《世界政策雜志》春季刊發表《外交事務》雜志編輯、哈佛大學訪問學者薩姆·溫特-萊維(Sam -Levy)和杰卡博·崔福森(Jacob )的文章,分析了人工智能可能給人類帶來的安全隱患和應對之道 。
無
法控制的全球性災難?
在過去數年中,人工智能領域的創新層出不窮 。2011年,IBM公司的超級計算機戰勝了最優秀的人類選手肯·詹寧斯,贏得了美國智力游戲大賽“危險邊緣”的冠軍 。2013年,軟件公司宣布成功破解文字驗證碼,這是一種用于防止機器人及惡意用戶濫用網站或服務的驗證措施 。硅谷已經出現了自動駕駛汽車 。更有甚者,2015年10月 , 由世界領先的人工智能公司谷歌公司研發的擊敗了歐洲圍棋冠軍 。與此同時 , 谷歌、IBM、等互聯網大鱷將數以億計的巨額資金投入到機器學習的研發之中 。
人工智能取得的突破將給全球的人們和商業帶來前所未有的機遇 。但與技術的進步如影隨形的是風險 , 而截至目前,風險在很大程度上被忽視了 。人們在進行人工智能研究時,將注意力聚焦在對經濟不平等的影響,而忽略了一個更為重要的問題:在控制那些有一天可能會比人類聰明得多的系統方面所面臨的挑戰 。
當前的技術根本不具備應對這種挑戰的能力,有人認為人類永遠無法獲得這種能力 。然而,科技界的精英人士指出了匆忙發展人工智能的消極后果 。兼任特斯拉(Tesla)和太空探索技術公司(Space X)首席執行官的埃隆·馬斯克(Elon Musk)曾指出,發展人工智能無異于“召喚惡魔” 。比爾·蓋茨、蘋果公司聯合創始人斯蒂夫·沃茲尼亞克(Steve )、美國企業家與風險資本家彼得·蒂爾(Peter Thiel)等都對人工智能的潛在危險提出了警告 。在人工智能的所有研究者中,加州大學伯克利分校教授斯圖爾特·羅素( )是最直言不諱的,但他并不是唯一的一個:眾多專家都已警告人工智能可能構成一個存在性風險 。2008年,在牛津大學舉行的一次關于全球災害風險的會議上,對與會專家進行的調查顯示,他們將超級人工智能看作是對人類最大的存在性威脅,超過了核戰爭、流行性疾病和氣候變化 。他們認為 , 到2100年,超級人工智能導致人類滅絕的可能性為5% 。
這些專家擔憂的并非是這樣一幅場景:世界被尋求毒害人類的惡意計算機接管 。相反,他們擔心的是一項具有巨大能力的技術的出現可能帶來的意外后果 。這項技術的誘因完全來自數行計算機代碼 。當你對筆記本電腦進行了一項誤操作時,其后果頂多是丟失了一份Word文件 。但如果人工智能完全依照程序員寫下的指令實施了類似操作,而又無法完全預料到其所有后果 , 那么就將造成全球性災難 。
智
能爆炸永無止境
出現能在所有領域像人一樣進行操作的機器也許還需耗時十余年,但一旦機器能達到通用人類智能,它們就能快速超越 。這種轉變的影響是巨大的 , 并且具有不可逆性 。上世紀后半葉,對人工智能風險的討論還僅限于科幻小說或電影,但現在則完全不同了 。
有限或弱勢的人工智能系統在事先設定的受限環境中運行 。從移動電話中的導航應用到亞馬遜的購買建議系統,再到機器翻譯工具和自動股票交易算法,此類系統能在各自領域以相當于或超越人類智能水平運行 。但自1997年以來,當IBM研發的“深藍”戰勝了俄羅斯超級大師加里·卡斯帕羅夫(Garry )之后 , 全世界最強的國際象棋選手就一直是計算機 。
盡管如此,“深藍”僅能在象棋領域擊敗人類 。與之相對的是通用人工智能,指的是能在眾多智能任務方面與人相匹敵的機器 。通用智能是一個難度很高的問題 , 其進展也比50年前專家預計的要慢 。然而,在過去5年里,新的視覺識別和語音識別系統已經取得了突破性進展,這超出了人工智能研究者的預期 。
對人工智能安全性的最嚴重關切并非來自有限智能甚至是通用人工智能,而是將隨著通用人工智能而來的超級人工智能 。學習能力是獲得了通用智能的任何系統的內在能力 , 因此人工智能將能夠提升其自身的能力,設計一個自身的改進版本,然后再由這個改進版本設計一個更為智能的版本 。這種永無止境的自我改進將導致“智能爆炸”,計算機科學之父圖靈的同事、數學家I.J.古德(I.J.Good)早在1965年就預測到了這一點 。
超級人工智能的到來尚有時日,現在考慮如何應對似乎是杞人憂天 。但超級人工智能帶來的災難場景并不難想象 。今天,社會運作在很大程度上依賴數字技術 。服務器儲存著金融資產;維基百科和谷歌書籍集人類知識之大成;軍用和商用無人機日益由軟件進行操縱 。
著名人工智能安全專家埃利澤·尤德考斯基( )設想了一個災難場景:一臺擁有人工智能的計算機一旦能夠接入互聯網,就能檢索關于生物技術的所有研究論文 , 研發出致命性極強的病原體,并將DNA字符串的特征發送給提供DNA合成并與聯邦快遞存在業務聯系的在線實驗室(這種實驗室已經存在) 。現在 , 只需有一個人接受報酬或受到欺騙,接收并打開來自聯邦快遞的小藥瓶,就將導致一次全球性的流行疾病爆發 。
國
際層面控制潛在危險
實際上,現在要限制人工智能的發展就如同在1975年限制互聯網的發展一樣徒勞無功 。
因此,各國的第一要務是理解這一問題,而非進行限制 。政府應當與大學和業界聯合建立工作組,在國家和國際層面上制定一個分析人工智能發展存在的可能風險的框架 。這些工作組應在人工智能研究者中推廣“最佳實踐”:在控制問題上進行協作與共享,并承諾一旦通用智能的安全風險上升,就進一步采取安全措施 。越早制定一份將安全置于速度之前的規范越好 。過去數年,通過各方密切合作,已經在核能和基因工程領域制定了類似規范 。
此外,政府還應對人工智能安全性研究進行投資,單靠私人投資遠遠不夠 。在國際層面,應借鑒控制具備潛在危險性技術的全球努力 。1972年,世界各國會聚一堂 , 討論暫停生物和毒素武器的研發、生產和儲存 。1975,在包括美國和前蘇聯在內的22個國家批準后,《禁止生物武器公約》生效 。截止到2015年,173個國家簽署了該條約 。當然,生物武器和人工智能是兩碼事 。最明顯的是,人工智能并非武器 , 也不會成為一種武器 。但人工智能可在很多方面獲得廣泛使用這一事實,使得控制其安全發展變得同樣極具挑戰性 。
制造生物武器也許符合某一國家或流氓行為體利益而不是所有人的利益,但開發強大的人工智能系統卻符合幾乎所有人的利益 。不過人工智能戰爭 漢化,并不是所有人都會審慎考慮是否能控制自己制造的人工智能系統 。
當前,美國匯聚了全球大量工程技術精英,這使它很有可能成為首個研發出超級人工智能的國家 。但是 , 美國對超級人工智能研發的嚴格限制使某些研發項目進入地下狀態或轉移海外 。因此 , 國際合作比單邊措施更為行之有效 。合作有助于避免人工智能領域的“軍備競賽”,防止競爭者因恐懼落于人后而大幅削減對安全防范措施的投資,并有助于更公平地分配超級人工智能帶來的好處 。
國際層面和各國政府、大學和私營公司之間的協作是確保人類安全獲得通用人工智能益處的關鍵 。今天,世界上最聰明的數學家和計算機科學家正在私人實驗室工作人工智能戰爭 漢化 , 推動人工智能技術的進展 。在大多數情況下,他們關心其工作所產生的社會影響 。世界頂尖大學的研究人員正致力于解決與這些研究相關的風險 。現在已經到了政府提高警惕,并開始理解人類下個世紀將要面臨的最嚴峻的技術和倫理挑戰的時候了 。一旦出現任何失誤,人類將萬劫不復 。
社會科學報
【世界政策雜志:限制人工智能大爆發”徒勞無功” | 社會科學報】本文到此結束,希望對大家有所幫助 。
- 淘寶服務市場收費標準及退款政策詳解!
- 中國最美的11處世界遺產地,這一生一定要去一次
- 世界上最兇狠的十個狗狗品種
- ?世界野生動物基金會會徽,世界野生動物基金會會徽的標志動物是什么
- 12種世界末日:從生態崩潰到人工智能
- 河南世界第九大奇跡掛壁公路,中國最危險的村莊郭亮村
- ?世界上第一顆人造衛星,1987年10月哪個國家把世界第一顆人造衛星送上太空?
- 網球男單世界排名2023 ?網球男單世界排名是怎樣的
- 限購政策對消費市場的影響及激發消費潛力的辦法
- 最新世界圍棋等級分排名 ?柯潔圍棋最新戰況
