人工智能有兩種,“弱人工智能”沒有自主意識 , 只是實現人類意圖的工具 。“強人工智能”有自主意識,有自己的意圖 。這兩種人工智能都可能導致巨大的災難,甚至是人類的滅絕 。但這只是可能性 , 不是必然量子計算機 人工智能,人類應該有辦法去防范風險,而且必須這么做 。
弱人工智能怎么會導致人類滅絕?一種可能性是出bug,比如人類用人工智能去管理核電站 , 結果全出bug造成環境災難 。或者人類用人工智能去管理核武器,結果出bug引發核大戰 。所以 , 對于弱人工智能的應用,人們已經意識到要特別小心 。不僅是人工智能,所有科技設施都要評估出bug的風險,不要貪圖先進而忽視風險 。
例如“核機器人”,用于核電站里的故障檢測等人類做不了的事 。設計者就要求,絕不能有任何“人工智能” , 不能出bug,出了問題誰也負不了責任 。核機器人 , 就只能是人類遠程操作的機器,絕不能出忽然出bug自行其事 。科學家、工業界和政府都已經認識到了,包括人工智能在內的科技設施,都要評估其安全風險 。在有意識地防備之后,弱人工智能這方面的風險并不特別高 。可以預見弱人工智能會繼續發展,在決策、推理、理解、識別等各方面的功能越來越強大,人們的顧慮不是太多 。

文章插圖

文章插圖
更加危險的是“強人工智能”,它有自主意識 , 問題要復雜得多 。有自主意識的強人工智能非常危險,人類甚至沒有什么好辦法保證安全 。強人工智能極度可怕的是,它可能脫離人類自我進化,能力指數爆炸 , 就象自我對弈學習快速進化,變成能力遠超人類的超人工智能 。就象提出“奇點”論的庫茲維爾說的,人工智能到了奇點爆炸以后,歷史就不屬于人類了 。人工智能會是另外一個物種,看人就象人看螞蟻一樣,是滅掉還是留著,不是人能控制的 。
科幻作家阿西莫夫曾經設想過“機器人三定律”,啟圖讓機器人以人類利益為最高準則 。但如果能力遠超人類的機器人真有自主意識,從技術上來說,它完全可能拋棄這個所謂的“準則”,或者破掉人類控制它的“小把戲” 。既然是“自主意識”,從思想上來說,就沒有什么是不可以想的 。能力遠超人類的機器人完全可能產生滅絕人類的想法,沒有什么科學定理或技術手段能保證它絕對不這樣想 。
當然由于強人工智能非常難,如何讓機器產生自主意識,科研人員還不知道 。所以現在這是一個科幻問題或者說假設性的問題 。但也有可能沒多久計算機和腦科學研發就取得突破,把它變成一個現實問題 。到時全球社會肯定會非常重視強人工智能的安全問題,提出種種對人工智能研發的限制,企圖保證人類的安全 。
但是,一旦科研屆真的可能在強人工智能上取得“危險的突破”,人類社會就會面臨一個十分為難的“二難選擇”:是為了安全放棄讓人工智能自我強化,還是冒險放手讓人工智能自我意識與能力飛速發展?
這個問題并沒有這么容易回答 。也許有些國家會選擇冒險實現技術飛躍,或者大富豪們希望發展出超級人工智能治好自己的?。?踔寥米約河郎?。所以,理性地看,即使人類社會對強人工智能研發下了禁令,最終還是會有組織秘密研發,打開魔盒 。
當然量子計算機 人工智能,超人工智能也未必就一定要滅絕人類 。只是選擇權不在人類手上了 。未來也許一片美好,也許人類滅絕 。
【人工智能會殺死人類嗎?】本文到此結束,希望對大家有所幫助 。
- 人與人工智能的結合將決定人類的未來
- 「智庫」智能互聯網是“四維空間”的“第四維”,是未來社會的基礎設施
- 滇池國際會展中心車展要門票嗎?
- 人工智能究竟是人類的福音還是災難?網友:能解決問題就是福音!
- 人工智能可以炒贏股票嗎?
- 好書·推薦|ChatGPT引起無數爭議?
- 拒絕壟斷,Mozilla啟動完全開源人工智能項目,以取代微軟ChatGPT
- 科幻成真!AI觀看7萬小時視頻后學會玩《我的世界》
- 蘋果恰飽,Siri摔倒?論“人工智能”程度,它還遠不及米家小愛
- 科技巨頭爭相布局人工智能 萬億市場急需監管
