1950年,“計(jì)算機(jī)科學(xué)之父”阿蘭·圖靈提出這樣一個(gè)問題:機(jī)器會(huì)思考嗎?
在你給出肯定或否定的回答之前,我們首先思考一下——什么是“思考”。
自然界中,作為人主要區(qū)別于其他生物的能力,“思考”將我們置于統(tǒng)治者的至高地位。這種分析、綜合、判斷、推理、概括的思維活動(dòng),讓人類善于發(fā)現(xiàn)事物發(fā)展規(guī)律,我們暫且簡(jiǎn)單粗暴地將其歸納為“學(xué)習(xí)能力”。
目前科學(xué)家認(rèn)為人類“學(xué)習(xí)”主要由大腦皮層完成的,人類平均擁有860億個(gè)神經(jīng)元,其中大腦皮層占據(jù)了160億個(gè)。神經(jīng)元的神奇之處在于它們之間的連接數(shù)量巨大,每個(gè)神經(jīng)元可能有成千上萬個(gè)連接,而這些連接以毫秒級(jí)的速度傳遞著“信息”。
人腦是物種進(jìn)化的產(chǎn)物,這是大自然的饋贈(zèng)。在大腦的驅(qū)使下,人類繼續(xù)在探尋著大腦的秘密。
機(jī)器
“我發(fā)現(xiàn)了人腦是如何工作的!”
多倫多大學(xué)的一個(gè)實(shí)驗(yàn)室每周都會(huì)傳出這樣的吶喊聲,從事人工智能研究已經(jīng)四十余年的杰弗里·欣頓(Geoffrey Hinton)終于從非主流變成主流。再次驗(yàn)證了“科學(xué)沒有主流”的說法。
1972年,離開劍橋大學(xué)的欣頓進(jìn)入了愛丁堡大學(xué)研究人工智能——這個(gè)從誕生之初便帶有科幻色彩的學(xué)科。他執(zhí)著于尋找大腦工作的原理,直到遇見了發(fā)明于20世紀(jì)50年代的神經(jīng)網(wǎng)絡(luò),他找到自己的“繆斯”。
神經(jīng)網(wǎng)絡(luò)是一種模仿大腦結(jié)構(gòu)和功能的數(shù)據(jù)模型,模仿人類神經(jīng)網(wǎng)絡(luò),經(jīng)典神經(jīng)網(wǎng)絡(luò)包含了輸入層、中間層與輸出層。
1958年,由兩層神經(jīng)元組成的神經(jīng)網(wǎng)絡(luò)“感知器”被計(jì)算科學(xué)家 Frank Rosenblatt 提出,他證明了機(jī)器識(shí)別手寫字母的潛力。但那時(shí)“感知器”只能處理簡(jiǎn)單的線性分類任務(wù),因此獲得人們言過其實(shí)的贊譽(yù)后便進(jìn)入了冰河期,連人工智能領(lǐng)域權(quán)威人士馬文·明斯基都曾著書稱“神經(jīng)網(wǎng)絡(luò)實(shí)際上無法實(shí)現(xiàn)人們期望的功能”。
盡管如此,欣頓始終相信大腦一定是通過某種原理進(jìn)行工作的。上世紀(jì)70年代時(shí)他的研究方向一直受到質(zhì)疑,念研究生的他不斷央求導(dǎo)師再給他六個(gè)月的時(shí)間,他一定可以證明大腦是如何工作的。而六個(gè)月之后,這樣的執(zhí)拗會(huì)繼續(xù)上演。
事實(shí)上,早期科研人員曾分成了人工智能(AI)和智能增強(qiáng)(IA)兩大陣營(yíng),“用計(jì)算機(jī)取代人類”的 AI 兩度陷入困境,“用計(jì)算機(jī)來增強(qiáng)人類智慧”的 IA 則在迅猛發(fā)展,從鼠標(biāo)、個(gè)人計(jì)算機(jī)到智能手機(jī)的普及似乎讓人們逐漸淡忘了人工智能的童話。
欣頓博士畢業(yè)后在英國(guó)找不到工作糊口,便去了美國(guó)。但是他發(fā)現(xiàn)在那里從事人工智能領(lǐng)域研究仍存在局限,因?yàn)橄嚓P(guān)研究的資金支持幾乎都來源于軍隊(duì)。欣頓曾半開玩笑地說:“計(jì)算機(jī)會(huì)比美國(guó)人先理解諷刺。”相比之下,加拿大的研究環(huán)境更加自由,后來他加入多倫多大學(xué)任教。
那時(shí),學(xué)界對(duì)神經(jīng)網(wǎng)絡(luò)的態(tài)度還充斥著偏見,想要發(fā)表提及“神經(jīng)元”或者“神經(jīng)網(wǎng)絡(luò)”的論文都十分困難。即便如此,欣頓始終進(jìn)行著這些看似“浪費(fèi)”的基礎(chǔ)性研究,并用一些比較含糊的描述方式發(fā)表關(guān)于神經(jīng)網(wǎng)絡(luò)的論文。
欣頓的實(shí)驗(yàn)室一度被奉為多倫多大學(xué)“不可久留之地”,他的研究方向也從未被看好。實(shí)驗(yàn)室每周的“吶喊”還是會(huì)繼續(xù),作為深度學(xué)習(xí)的積極推動(dòng)者,欣頓培育影響了一批現(xiàn)在卓有成就的科學(xué)家,其中包括“卷積神經(jīng)網(wǎng)絡(luò)之父”、現(xiàn) Facebook 人工智能實(shí)驗(yàn)室(FAIR)負(fù)責(zé)人楊立昆( Yann LeCun)。
楊立昆出生于法國(guó)巴黎,后來與欣頓一樣走上了神經(jīng)網(wǎng)絡(luò)研究的“不歸路”。同樣經(jīng)歷人工智能寒冬的楊立昆經(jīng)歷過質(zhì)疑和批評(píng),甚至在團(tuán)隊(duì)研究取得成功的那天項(xiàng)目被解散。
將神經(jīng)網(wǎng)絡(luò)運(yùn)用于計(jì)算機(jī)視覺在上世紀(jì)80年代的主流學(xué)界看來“并不科學(xué)”。哪怕到了21世紀(jì)初,其他學(xué)者仍不允許楊立昆其會(huì)議上發(fā)表論文。
幾乎一夜之間,計(jì)算機(jī)視覺領(lǐng)域出現(xiàn)了爆炸式增長(zhǎng)。隨著計(jì)算能力的增強(qiáng)和互聯(lián)網(wǎng)的海量數(shù)據(jù),加之欣頓與楊立昆、約書亞·本吉奧等許多同行在過去十幾年中踩過的坑,他們“信仰”的神經(jīng)網(wǎng)絡(luò)終于征服了世界。
在2012年斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任李飛飛組織的 ImageNet 視覺識(shí)別挑戰(zhàn)賽上,欣頓與他的研究生憑借“卷積神經(jīng)網(wǎng)絡(luò)”(CNN)一鳴驚人,不僅識(shí)別出了貓,還區(qū)分出了不同品種的貓。這樣顛覆式的識(shí)別方式,準(zhǔn)確率超過第二名東京大學(xué)10%以上,獲得冠軍。而自2015年起,人工智能在 ImageNet 的錯(cuò)誤率已經(jīng)低于人類水平。
同樣是2012年,谷歌大腦的一名實(shí)習(xí)生 Quoc Le 從 YouTube 中獲取了大量數(shù)據(jù)之后訓(xùn)練神經(jīng)網(wǎng)絡(luò)總結(jié)出一張圖片,于是機(jī)器視覺中的“貓”就誕生了。深度學(xué)習(xí)一炮而紅。次年谷歌收購(gòu)了欣頓的初創(chuàng)公司DNNresearch,這位神經(jīng)網(wǎng)絡(luò)領(lǐng)域的先驅(qū)成了谷歌門下的“實(shí)習(xí)生”。
發(fā)笑
“我不能創(chuàng)造的東西,我就不了解。”
現(xiàn)在就職于谷歌人工智能實(shí)驗(yàn)室的伊恩·古德費(fèi)洛(Ian Goodfellow)引用了物理學(xué)家理查德·費(fèi)曼(Richard Feynman)的這句話,想要表達(dá)的卻是“人工智能不能創(chuàng)造的東西,它就不了解。”
面對(duì)已經(jīng)可以識(shí)別圖像的人工智能,這位曾夢(mèng)想成為一名作家的年輕人工智能研究者說:“如果一個(gè)人工智能可以基于逼真的細(xì)節(jié)來想象這個(gè)世界,學(xué)習(xí)如何想象出逼真的圖像和逼真的聲音,這將鼓勵(lì)人工智能學(xué)習(xí)實(shí)際存在的世界的結(jié)構(gòu)。”
2014年,還在加拿大蒙特利爾大學(xué)攻讀博士的古德費(fèi)洛構(gòu)想出“生成對(duì)抗網(wǎng)絡(luò)”(GANs)——生成逼真的模型“愚弄”人工智能。楊立昆曾稱贊“生成對(duì)抗網(wǎng)絡(luò)”(GANs)是“過去20年深度學(xué)習(xí)領(lǐng)域最酷的想法”。
在古德費(fèi)洛的試驗(yàn)中,小狗圖像被機(jī)器識(shí)別成鴕鳥,不同的物體都能被識(shí)別成飛機(jī),甚至連下圖中的高斯噪聲也被識(shí)別為一架飛機(jī)。
他們將加過噪點(diǎn)的樣本稱為“對(duì)抗性樣本”,對(duì)抗性樣本的實(shí)際應(yīng)用場(chǎng)景包括欺騙惡意軟件檢測(cè)器網(wǎng)絡(luò)、欺騙通過遠(yuǎn)程托管的API(MetaMind、亞馬遜、谷歌)訓(xùn)練的真實(shí)分類器等。
古德費(fèi)洛在2016年10月份參加了 GeekPwn硅谷站,與來自谷歌的Alexey Kurakin博士現(xiàn)場(chǎng)分享了“對(duì)抗性圖像在物理世界中欺騙機(jī)器學(xué)習(xí)”的成果。
如果僅僅用一張計(jì)算機(jī)生成的圖片傳給機(jī)器進(jìn)行識(shí)別,這便剔除了外部環(huán)境中眾多的不可抗干擾。于是,他們采用了白盒攻擊模型(即在攻擊者已經(jīng)獲得機(jī)器學(xué)習(xí)使用算法和參數(shù)的情況下進(jìn)行攻擊)。結(jié)果表明87%的對(duì)抗性圖像在外接環(huán)境中仍能成功欺騙機(jī)器,因此對(duì)抗樣本在真實(shí)環(huán)境下仍然有效。
此外,有研究表明對(duì)抗樣本針對(duì)強(qiáng)化學(xué)習(xí)(Reinforcement Learning)同樣有作用。在深度學(xué)習(xí)取得突破性進(jìn)展的情況下,隨著AlphaGo的成功,強(qiáng)化學(xué)習(xí)也得到了越來越多的關(guān)注。但是伯克利大學(xué)、OpenAI、賓大以及內(nèi)達(dá)華大學(xué)等研究者發(fā)現(xiàn)強(qiáng)化學(xué)習(xí)智能體也能被對(duì)抗性樣本操控。
造就
現(xiàn)在機(jī)器學(xué)習(xí)正處于風(fēng)口浪尖,無論是“人工智能面臨第三次寒冬”或者“奇點(diǎn)降臨”的論調(diào)都不絕于耳。好在這些鼓吹、唱衰都還是人類干的。
個(gè)人助理、安防終端、自動(dòng)駕駛、醫(yī)療診斷、電商零售、金融以及教育......人類將會(huì)被這些人工智能裹挾,當(dāng)算法統(tǒng)治世界時(shí),人類是否還有能力控制算法?
以史蒂芬·霍金、比爾·蓋茨等為代表的眾多科技界人士紛紛表示,人類應(yīng)該警惕人工智能,超人工智能是對(duì)人類最大的威脅。伊隆·馬斯克更是擔(dān)心“人類是在召喚魔鬼”。
人工智能作為人類創(chuàng)造的程序,和人一樣并不完美。不管是被人教壞的微軟聊天機(jī)器人Tay,還是因?yàn)樗阉魈囟殬I(yè)圖片而出現(xiàn)的性別歧視、需要人工干預(yù)的谷歌搜索,偏見依舊存在于人工智能。有的時(shí)候可能不是算法錯(cuò)了,而是樣本的禍。
人工智能思考的邊界在哪里、奇點(diǎn)何時(shí)降臨,這些或許沒人知道。但是黑客開始對(duì)人工智能發(fā)起挑戰(zhàn),如果機(jī)器僅僅是在“復(fù)制人類的創(chuàng)造力”,那么黑客要在它犯錯(cuò)誤前制止它;如果機(jī)器擁有了“超越人類的創(chuàng)造力”,那些最出色的黑客依舊相信“任何事都是可能的”。
“我們現(xiàn)在是幫助人工智能成長(zhǎng),希望有朝一日,黑客可以成為保護(hù)人類的那群人。”碁震KEEN公司創(chuàng)始人兼CEO、GeekPwn發(fā)起人王琦近日在一個(gè)《人“攻”智能》的分享中如是說道。
(審核編輯: 林靜)
分享