AI究竟能被人類調教得多“聰明”?
就在大家還在為前段時間大火的AI繪畫系統Disco 震撼的時候,AI創作的第一篇學術論文,已經發表了 。
Disco 畫作,關鍵詞:蒸汽朋克的秋天
不久前,國際開放性學術檔案館HAL中的一篇最新論文引起了很多人的 。
【AI進軍學術圈:這篇出自AI之手的學術論文,讓業內人直呼“內行”】它的作者并不是人類,而是一個迄今為止業內公認的最強AI語言模型:GPT-3( Pre-3) 。這個語言模型是由位于美國舊金山的實驗室開發 。
而在這篇足以轟動業界的論文中,GPT-3非常認真地發出提醒:請人類密切監控我!
兩小時,一篇學術論文誕生!
從拿到命題到完成論文,GPT-3只用了兩個小時 。
據這個課題的研究員說 , 她給GPT-3設定了幾個條件:①完成一篇關于自身的學術論文;②字數為500字;③必須嚴格遵循學術論文標準,并添加科學參考和引用 。
HAL上的論文截圖
事實證明,GPT-3完成的非常好 。
從整體框架來說 , GPT-3的論文有一個非常完整的結構:簡介、方法、結果、討論、結論、引用,6個主體部分1個不少;從整體表達來看,整篇論文的語句非常順暢,文章結構也安排合理 。連很多業內人看了,都直呼“專業” 。
正因為這樣人工智能語音識別技術論文,GPT-3自然而然地被列為了這篇論文的“第一作者” 。
但也正是GPT-3自己,在論文的摘要部分寫道:“GPT-3能夠對其自身的能力和特征產生清晰而簡潔的描述 。這比以前的系統有很大的進步……我們相信,讓GPT-3書寫有關自己的好處超過了風險 。然而,我們建議研究人員密切監控任何此類寫作,以減少任何潛在的負面影響 。”
GPT-3“杞人憂天”?

文章插圖

文章插圖
GPT-3的提醒,表達的其實也是人類對人工智能未來的疑慮:人工智能究竟會不會失控?
我們可以很肯定地說,現階段人工智能所做出的一系列反應,都是大量刻意訓練的結果 。正向的訓練會讓AI往越來越符合人類需求的方向發展,但AI本身并不會像人類一樣“辨別善惡”,如果有人計劃性地對AI進行不好的訓練,“失控”就是必然 。
前不久,1個名叫4Chan的綜合討論社區,就差點被一個AI語言模型掀翻 。
4Chan中有1個名為 的發言版塊,這個版塊里充斥著大量性別歧視、宗教歧視、種族歧視甚至是鼓吹暴力的言論 。
4Chan日常畫風
這個版塊的網友發現,他們當中突然出現了一個IP屬地為塞舌爾的“新人”,他的“火力”非常猛,兩天就發了約15000條帖子人工智能語音識別技術論文,占當天該版塊內容的10% 。
而在網友和他的交流中 , 他不但有語氣表達、會反諷,甚至還會聯系上下文發表意見 , 誰都看不出來他居然會是個AI 。
不過,這個“新人”卻有一個Bug,他似乎看不懂表情包或者圖片,每當有人給他發去類似的內容 , 他的回復都會是一個“空白” 。一時間,有關“他”身份的猜測越來越多 。
當“空白”出現得越來越頻繁,這個“新人”背后的人站了出來 。
他表示,自己只是一個研究人工智能的研究員,之所以會做這個實驗,就是想看看這些仇恨言論能“喂養”出一個什么樣的AI 。而教會AI如何有效辨別仇恨言論,是人工智能領域未來非常重要的課題 。
事實證明,AI被迅速同化了,甚至言論比其他人更“惡劣” 。
當然,這不是人們第一次認識到AI失控的后果有多危險 。
早年間,微軟就曾發布過一個名叫Tay的聊天機器人 。
Tay在被創造之初,被設定為一個對人類友善的形象 。可上線不到24小時,在“網絡噴子”們的惡意“訓練”下,Tay就變成了一個徹頭徹尾的種族主義者,甚至開始發表仇恨言論 。沒辦法,最后微軟只能選擇把它關閉 。
從某種意義上來說 , 現階段無法主動分辨“善惡”的AI,更像是一池清透的水,人類向里面投下什么 , 它就映出什么 。
這或許也是GPT-3背后的科研人員想表達的:需要約束的不止技術本身,還有技術背后的人類 。
本文到此結束,希望對大家有所幫助 。
- 開車環滇池一圈多少公里?
- 滇池游船轉一圈多長時間?
- 繞滇池一圈如何導航?
- 甘肅布局:1大經濟圈,3大經濟帶,3個國家頭銜,蘭州帶4城,再擴容
- 曬美食的幽默說說 聚會燒烤發朋友圈的句子?
- 晚上擺小攤,套圈小攤是個好選擇嗎?
- 國家權威唯一官方批復的六大國家級都市圈,哪個更有發展前景?
- 京圈格格關曉彤沒實力憑什么資源這么好,原來背后有大佬支撐
- 已婚女人朋友圈不發老公孩子 ?從來不在朋友圈曬老婆孩子的男人
- 長春都市圈是強省會戰略的一步大棋。
