上周,Elon Musk(伊隆?馬斯克)宣布了數十億美元的舉措,并且公司召回DARPA的大挑戰、X-Prize(X獎)、麻省理工學院媒體實驗室的人腦計劃 , 此創新體制機制,明確旨在吸引高端人才和世界各地對于此問題的 。它們可以很好地工作,而且我敢打賭 , 舉措將鞭策了類似的競爭反應:聰明的公司如谷歌、、蘋果、亞馬遜、百度和阿里巴巴將立即認識到,研究人員確定需要將所謂的“不以盈利為目的”的問題,納入到自己的AI / ML技術路線圖 。
Elon Musk(伊隆?馬斯克)認為,對于AI(人工智能)所面臨的主要挑戰,應該是解決此問題:感受 。
AI(人工智能)其實是用詞不當的,該標簽歪曲并且具有諷刺意味,誤解了學習和認知的現實意義 。歷史證據充分地表明:智力和認知的共同發展,應該是伴隨著情感和影響力的;想象力和創造力應該盡可能多的與情感的功能和認知的影響力一樣 。
如果人們想要機器人,能夠提高創造力和想象力,并且他們也確實這樣做了,那么“AI(人工智能)”和“機器人學習”的研究必須要面對這樣的現實,這不僅僅是你希望它是多么“聰明”或“有知識”或“智能”這樣一件事 , 而是你自己決定應該植入什么樣的氣質和情感,那取決于你的決策、溝通和行動 。
這種超級智能技術,名副其實是一個“自己的心態” , 是否應該將這些情感:恐懼、痛苦、渴望、好奇、刺激、情緒和志向使用數字化程序,植入進AI(人工智能),必須要進行一個研究假設 , 并且進行嚴格的測試,而不是一個已成結論 。“情感”與“情緒”這些思想一旦植入進去 , 也可能會出現AI(人工智能)反過來傷害人類,甚至統治人類世界,雖然 , 這可能離我們很遙遠,但是 , 這并不意味著它們不存在或將來不會存在 。
對于這樣的事情,蘋果、谷歌、、GE(通用電氣公司)、亞馬遜,以及其余想涉足機器人學習的公司 , 從來沒有提到如Elon Musk(伊隆?馬斯克)所擔心的那些問題 。Elon Musk(伊隆?馬斯克)已經描述了AI(人工智能)的潛在危險,可能會比核武器更危險 , 并且擔心機器人擁有了情感后,可能會比它擁有的“智能”更加聰明得多 。因此,AI(人工智能)僅僅是“智能”的思想,根本還遠遠不夠 。要成為真正并有效地管理由AI(人工智能)所帶來的實際風險,Open AI行動必須直視這一點現實 。
雖然在一本書《末日載貨 》這本書以及《天網終結者》這部電影里 , 制定公共政策的敘述有點矯枉過正,但確實是有風險的,它們確實需要進行周到的管理 。對于此問題的思考人工智能(ai)發展 , 確實不能如科幻小說里那樣,而是需要進行合乎邏輯的推斷 。考慮到這種決定,充滿了道德 , 偏見和情緒的AI(人工智能)必須要認真對待 。
企業使用預測分析和機器人學習這些復雜的程序設計,以抵御網絡犯罪、網絡間諜 , 以及應對來自于其他民族國家和世界各地敵對團體的網絡攻擊 。面對惡性和復雜的威脅,需要更迅速和更強大的防御能力 。技術要想更快速、更靈活和更憤怒 , 還需要越來越大的自主權,才能取得成功 。但是,如果復雜性的攻擊組合 , 以及“自體免疫反應”證明是不正常的,將會發生什么呢?什么樣的數字化藥物治療或管理 , 一種幻覺全球網絡開始傷害本身呢?
圍繞準自主車,如自主駕駛汽車、無人駕駛飛機等的道德和法律爭論,隨著它們能力的提高在不斷加劇 。當事故不可避免的出現時,技術是否具有首要義務,以它最大的能力去保護使用者的安全呢?或盡量減少對人類的傷害呢?難道一個嬰兒能夠更改計算機的算法嗎? “情境感知”車輛可能不允許它們的使用者渺視了車輛自己的決定,車輛可能會認為自己應該受到最好的保護,進行維修或者保養 。當兩個家庭使用的無人駕駛飛機即將發生碰撞時,如果它們爭吵不愿意以最好的方式來保護人類,將會發生什么呢?
隨著生產工具和跟蹤器的激增,工作人員將越來越多地發現他們的行為被監控和分析 。機器人學習算法將確定哪些人是非常適合合作的,哪些人應該分開工作 。該軟件觀察誰應該得到表揚和鼓勵,或者誰被通報批評后,會得到改善 。該技術同樣改變或編輯了人際關系,以及團隊溝通,以盡量減少意外的冒犯或誤解的風險 。該機器人特別注意消除人為造成的惡劣工作環境中的任何威脅;它們識別和記錄的微侵略和歧視性的人類行為 。該技術匯編最有成效、最高效和適得其反的行為檔案,同時不斷掃描數據,來分析和預測可能發生的推卸責任或詐騙行為 。這樣使用技術來監督 , 分析人類的行為是否有意義呢?甚至如果使用不當 , 還會存在傷害和操縱人的風險 。那么,最終到底是人類還是機器人應該對這些情況負責呢?
在這三種情況下人工智能(ai)發展,與現有的AI (人工智能)或者機器人的學習研究和部署沒有什么不一致 。這個風險不僅僅是機器人可能會“接管”我們的工作 , 如果再往前一步,就可能是世界末日 。我擔心當機器人有不同的觀點 , 從本質上講,是不同的感受,將會發生什么呢?
如果沒有周到的深度學習研究,這些研究人員就編寫一些愚蠢的代碼,這是非常具有風險的事,如果,哪天這些愚蠢的代碼也能夠反過來編寫關于人類的代碼,那就是一件很可笑的事了 。
所以,聰明的建議就是 , 未來最有效的數字技術確實需要情感,但是,人類也應該具有一個新的強有力的人類自我意識,能夠控制機器人的意識,這很重要 。
【人工智能 AI真正的風險】本文到此結束 , 希望對大家有所幫助 。
- 一棟別墅,四個主演,這部驚悚科幻可能預演著人類的未來生活
- 哪些股票是人工智能概念?
- ?毛筆分叉的簡單處理辦法 怎樣預防毛筆分叉
- 叫舅舅是不是外甥 ?叫舅舅的是外甥還是侄子?
- ?成都經濟適用房的管理辦法是什么?
- ?家庭養花 幸福樹的養護及葉子變黃解決辦法
- 民族問題產生的自然原因 ?民族問題產生的自然因素主要是指什么
- ?花卉的養殖注意事項 根據家居風水不同養殖不同的花卉
- 漲姿勢〇龖刕鱻 ?超罕見的生僻字
- 苜蓿頭茬賽人參 ?野苜蓿的營養價值及功效
